Алгоритмите на бъдещето – рискове и тревоги

В днешно време е видно повече от всякога, че развитието на човечеството изостава спрямо напредъка на алгоритмите. Предразсъдъците и негативните черти в човешкия характер са пренесени от нашето минало и все още не са изкоренени. Проявите на расизъм, неравенството между половете, липсата на уважение към чуждите избори или мнение. Дискриминацията, независимо дали касае сексуалната ориентация, религиозните възгледи или дори марката на закупена кола, е типичен пример за един остарял начин на поведение и мислене. Моралът на всеки един индивид формира морала на обществото. От друга страна, моралът на обществото влияе върху този на личността. Затова може би изпитваме толкова сериозни трудности в нашето израстване. 

Пред технологиите обаче няма такъв проблем. Те за нас все още са едни неодушевени предмети с програмирана от човека дейност. Дали ще са материални проявления на техническия напредък като роботи и компютри, или ще са интелектуални такива като софтуер или гениално прозрение в науката - това не е от съществено значение. Все още сме на етап от нашето развитие, където е важно не съществуването на съответните машини или открития, а начинът, по който се употребяват, и индивидите, които се възползват от тях.

Алгоритмите - повод за съмнение или гарантирана сигурност

Няма съмнение, че в една прогноза за бъдещето единственият сигурен извод, до който можем да стигнем, е че алгоритмите ще продължават да играят все по-важна роля в нашия живот. Може би не си даваме сметка колко много от ежедневната си работа дължим на тях, внедрени в неща, които днес считаме за първа необходимост. Постоянно използваме телефоните си за разговори, слушане на музика и много други неща. Компютрите съкращават или улесняват много от досадните задачи, които имаме да вършим през деня. Конзолите за игри пък разнообразяват ежедневието ни. 

Много компании също се възползват от напредъка на иновациите и предлагат услуги, които само допреди няколко години бяха немислими. От пазаруване онлайн, през дистанционната комуникация, стигаме до момента, в който всичко около нас сякаш се дигитализира.

И докато технологичните компании търпят своето развитие, алгоритмите също са в своеобразен подем. Новите изчислителни способности на машините повишават степента на сложност, която експертите могат да вкарат в компютърните процедури. Можем спокойно да кажем, че се намираме в своеобразен Ренесанс на изкуствения интелект, благодарение на по-комплексните модели за машинно самообучение, пуснати в експлоатация. 

Тази скорост на внедряване на нови алгоритми ще се засили в бъдеще. Колкото и примамлива да изглежда идеята, че животът ни ще бъде улеснен още повече, трябва да си зададем въпроса на каква цена ще стане това и искаме ли да я платим. 

Замисляли ли сте се някога, колко много се доверяваме на технологиите? Днес без капка колебание се движим натам, накъдето ни отведе навигацията в колата. Вярваме сляпо на изчисленията, генерирани от програми като “Ексел” например, просто защото не сме в състояние да ги извършим сами. Натрупаните положителни развръзки от подобна употреба на алгоритми ни оставят с впечатлението, че те са доста точни - по-скоро, достатъчно точни, за да не се колебаем в тях. 

Photo by Philippe Oursel on Unsplash

Една грешка обръща каруцата

Само една грешка обаче може тотално да разбие тази наша идеалистична представа и да ни накара да поставим всеки един резултат под съмнение. Стигаме до така наречения в психологията ефект на възможността. Той е много добре описан от Даниел Канеман със следния пример:

Нека си представим, че имаме следните промени в шансовете да спечелим един милион лева:

  • От 0% на 5%
  • От 5% на 10%
  • От 10% на 15%

Въпреки че във всеки един от случаите шансът ни се повишава с точно 5%, ние възприемаме трите опции различно. Когато говорим за втората или третата, не усещаме кой знае каква разлика, 5% разлика не влияят много на нашата психика и не променят очакванията ни за печалба. При първата промяна е друго, защото идва възможността. От сигурна загуба се стига до лека надежда, а с това и усещането ни за печалба рязко се променя. Ние вече имаме шанс, а това е от огромно значение. То води до тотална промяна в осмислянето на вероятностите. Този новопоявил се шанс ни провокира поне да опитаме да спечелим.

Нека пренесем подобен случай в контекста на горните размишления. Да приемем, че имаме алгоритъм, който може да определи дали един обвиняем е наистина виновен с възможност за грешка от 0%. Ние ще сме спокойни да му се доверим без да има нужда от човешки контрол. Нека сега кажем, че все пак има един случай от 10 000, в който алгоритъмът е осъдил човек погрешно. Още ли смятаме, че програмата заслужава пълно доверие? Същото наобратно се наблюдава, ако ви кажа, че успехът на технологията се увеличава от 95 на 100%. Тогава виждаме ефекта на сигурността.

Невинаги можем и невинаги трябва да се доверяваме сляпо на алгоритмите. В бъдеще все повече ще ни се налага да определяме с голяма точност до къде може да се простира вярата ни в тях.

Photo by Rock'n Roll Monkey on Unsplash

Личните данни и изкуственият интелект

Днес виждаме известията за персонализирани бисквитки във всеки сайт. С други думи, онлайн платформите са гладни за нашите данни. Ние благонадеждно се съгласяваме да споделяме лична информация, с която храним алгоритмите на корпорациите. Важно е да знаем за какво ги използват.

Ще започна малко по-отдалеч. Изкуственият интелект и методите за машинно обучение много приличат на това как работи нашето съзнание. Имаме един алгоритъм, който ползва входящи данни, анализира ги, обработва ги и ни дава резултат. Ако той е правилен, награждаваме алгоритъма, а ако не е, го караме да се самопренастрои. Разбира се, този процес е твърде сложен, за да го поместя в следващите редове, но и не смятам, че е нужно. Всъщност, толкова е сложен, че дори създателите на тези методи не са в състояние да проследят всичките му стъпки. По това те се различават от стандартните инструкции, които програмистите задават на компютрите. Вторите са лесно разгадаеми и лесни за проследяване, особено за по-опитните информатици, дори и да не са запознати с пълния им контекст на ползване.

За да се подобри качеството на изкуствения интелект, той трябва да премине през доста симулации, а за това са му нужни данни. Именно там отива споделената от нас информация. Кликането на определен линк, търсенето на определен артикул - това се следи, а после ни се предоставят реклами, референтни на нашето търсене. Плейлистите, генерирани от музикалните приложения, също са плод на анализ на предишни наши предпочитания. С други думи, алгоритмите са гладни за нашите данни.

Разбира се, вече трябва да сме се досетили колко тревожно може да бъде това. Личната информация затова е лична, а ние може би не знаем, че вече сме я споделили, и то доброволно, именно поради сляпата вяра в технологиите. Или, още по-лошо, поради неглижиране на важността на нашето съгласие.

Photo by Jefferson Santos on Unsplash

Квантовите компютри и киберсигурността

В повечето случаи, нашите данни би трябвало да са подсигурени и защитени. Днешната киберсигурност се крепи не на друго, а на не докрай развития изчислителен потенциал на машините. Данните биват криптирани, а за тяхното разкодиране по сегашните стандарти ще трябват векове, за да се открие какво реално стои зад шифровавеното им.

Това ще се промени с навлизането на квантовите изчисления в компютърния свят. Квантовите процеси, внедрени в изчислителните машини, ще усилят техните възможности почти неограничено. Ако сега даден компютър може да съхранява информация побитово - само чрез 0-ли и 1-ци, то, благодарение на суперпозицията, тези състояния ще се увеличат на 4 - 0/1 и 1/0. Суперпозицията е демонстрация как една елементарна частица като електрона може да е в няколко състояния едновременно. Обикновено в квантовите компютри, за да се възползваме от това свойство на частиците, ние използваме електрона и по-точно неговата въртеливост (спин). Електронът по едно и също време е с горен и долен спин, което за компютрите се превежда като 0 и 1. Ако имаме един нормален бит, то той ще се характеризира само една стойност - 0 или 1. При кюбита (квантовия бит) стойностите са нула и едно. 

Пренесете това увеличение с по-голям брой битове и ще получите увеличаване на изчислителната мощ експоненциално (2n, където n е броят на кюбитите). С това се намалява притеснително много времето за разкодиране на информация чрез “груба сила” (опростен метод, при който се опитва всяко възможно решение и се определя най-доброто), което от своя страна ще доведе до проблеми в киберсигурността. Така нашите данни могат да останат притеснително незащитени.

Photo by Bram Van Oost on Unsplash

Етиката и алгоритмите 

Развитието на технологиите неминуемо ще доведе до развитието на хората като индивиди и като общество. Всеки от нас лично трябва да се погрижи да се информира и да не изостава в дигиталния свят. Осведомеността ни за това как се обработват личните данни, как работят алгоритмите зад дадена технология и какво ни струва да получаваме всичко това безплатно, е от особено значение. Дори една бегла представа по тези теми може да ни предпази от много неприятности

Като общество пък трябва да сме нащрек за това колко сила придаваме на корпорациите, които използват подобни алгоритми и данни, както и колко навътре в нашия живот допускаме алгоритмите. 

С течение на времето ще видим, че тези нововъведения ще ни накарат да преосмислим начина, по който гледаме на етиката. Ако собственикът на автономен автомобил се вози на задната седалка и катастрофира с друга кола, кой носи отговорност? Собственикът, производителят или просто го приписваме на вероятна техническа грешка? Ами, ако даден композитор използва изкуствен интелект, за да прави музика, на кого ще принадлежи тя - на откривателя на алгоритъма, на композитора или на самата програма? Дали корпорациите няма да наложат монополи на пазарите чрез ефекта на натрупването? (Това натрупване на качества или недостатъци също е описано в книгата на Канеман - “Мисленето”)?

Това са въпроси, които сякаш още не ни касаят директно. Но в един момент отговорите, които ще им дадем, ще предопределят бъдещето ни.

В крайна сметка сме далеч от апокалиптичното бъдеще, което ни се предлага във филми като “Терминатор”. Далеч сме и от симулации, подобни на тази, представена в “Матрицата”. Все още сме в етап, на който дори не можем да кажем, че изкуственият интелект наистина е интелигентен. Това не означава, че всичко пред нас е светло, а технологиите винаги са ключът към развитието. Трябва да бързаме бавно и същевременно да внимаваме на всяка крачка.

Иван Григоров

Leave a Reply

Your email address will not be published. Required fields are marked *