Да се страхуваме от изкуствения интелект или не? Това е въпросът.

Дори тези, които откачат, не се съгласяват по въпроса кое прави технологията толкова застрашаваща

09:00 | 11 май 2023
Обновен: 16:06 | 11 май 2023
Снимка: Gabby Jones/Bloomberg
Снимка: Gabby Jones/Bloomberg

През януари 2015 г. новосъздаденият и грандиозно наречен Институт за бъдещето на живота (FLI) покани експерти в областта на изкуствения интелект да прекарат дълъг уикенд в Сан Хуан, Пуерто Рико, изготвяйки писмена програма за областта. Тонът на получените документи беше предимно оптимистичен. В отворено писмо се признава, че е трудно да се предскаже какво точно ще бъде въздействието на изкуствения интелект - то излага някои потенциално разрушителни последици - но също така се отбелязва, че „изкореняването на болестта и бедността не са непостижими“.

Отвореното писмо, публикувано от FLI на 29 март, беше различно. Групата предупреди, че Al labs участват в „извънконтролна надпревара за разработване и внедряване на все по-мощни дигитални умове, които никой – дори техните създатели – не може да разбере, предвиди или надеждно да контролира“. Той призова за незабавно спиране на най-напредналите изследвания на Al и привлече хиляди подписи - включително тези на много видни фигури в тази област - както и голямо отразявания в медиите.

За всеки, който се опитваше да разбере текущата лудост по ИИ, писмото беше поучително на много нива. Това е ярък пример за това как разговорите за напреднали технологии могат да се променят с невероятна скорост. Атмосферата в Пуерто Рико през 2015 г. беше положителна и колегиална, казва Антъни Агире, вицепрезидент на FLI и секретар на нейния борд, който присъства на тази конференция и помогна за изготвянето на скорошното писмо. „Това, което липсваше тогава бяха гигантски компании, които се конкурират една с друга“, казва той.

Поглеждайки назад, рискът технологичните компании с личен интерес да доминират в областта изглежда очевиден. Но тази загриженост не е отразена никъде в документите от 2015 г. Също така, липсваше каквото и да било споменаване на разпространението на дезинформация в индустриален мащаб, проблем, който много технологични експерти сега виждат като една от най-плашещите последици от мощните чатботове в близко бъдеще.

Тогава имаше реакция на писмото от миналия месец. Очаквано, водещи Al компании като OpenAI, Google, Meta Platforms и Microsoft не дадоха никакви индикации, че това ще ги накара да променят своите практики. FLI също се сблъска с ответен удар от много видни експерти по Al, отчасти поради връзката си с поляризиращото движение за ефективен алтруизъм и Илон Мъск, донор и съветник.

Освен всякакви кавги в Силиконовата долина, критиците смятаха, че FLI нанася щети не с изразяването на опасенията, а с фокусирането върху грешките. В писмото му има несъмнен оттенък на екзистенциална заплаха, което изрично повдига перспективата хората да загубят контрол над цивилизацията, която сме изградили. Страхът от компютърната суперинтелигентност е отдавнашна тема в техническите кръгове, но също и тенденцията да се преувеличават значително възможностите на всяка технология, която е обект на най-новия цикъл на реклами (вижте също: виртуална реалност, гласови асистенти, разширена реалност, блокчейн и др.).

Прогнозирането, че Al ще сложи край на бедността и предупреждението, че това може да сложи край на човешката цивилизация, изглежда се намират в противоположните краища на техно-утопичния спектър. Но всъщност и двете насърчават мнението, че това, което Силиконовата долина изгражда, е много по-мощно, отколкото лаиците разбират. Това отклонява от по-малко сензационни разговори и подкопава опитите за справяне с по-реалистичните проблеми, според Александър Мадри, съръководител на Al Policy Forum на Масачузетския технологичен институт. „Това наистина е контрапродуктивно“, казва той за писмото на FLI. „Това няма да промени нищо, но ще трябва да изчакаме да отшуми, за да се върнем към сериозните въпроси“.

Водещите комерсиални лаборатории, работещи върху Al, правят големи съобщения в бърза последователност. OpenAI пусна ChatGPT преди по-малко от шест месеца и го последва с GPT-4, който се представя по-добре по много показатели, но чиято вътрешна работа е до голяма степен мистерия за хората извън компанията. Неговата технология захранва серия от продукти, пуснати от Microsoft Corp., нейният най-голям инвеститор, някои от които направиха обезпокоителни неща, като изповядване на любов към човешките потребители. Google бързо пусна конкурентен инструмент за търсене, задвижван от чатбот, Bard. Meta наскоро направи един от своите Al модели достъпен за изследователи, които се съгласиха с определени параметри - и кодът бързо се появи като наличен за изтегляне другаде в мрежата.

OpenAI, въпреки името си, се превърна във водещ защитник на необходимостта от стриктно пазене на технологията, приемайки мнението, че основната опасност е разпространението на Al по този начин. Компанията каза, че може да предвиди бъдеще, в което представя модели за независим преглед или дори се съгласява да ограничи технологията си по ключови начини. Но не е казано как ще реши да направи това. Трудно е да не забележите колко добре неговият предпазлив подход съвпада с търговските му интереси, както редовно се изтъква от критици, които казват, че OpenAI затруднява извършването на независими изследвания върху изкуствения интелект.

Някои конкуренти също се стремят към подхода на OpenAI. „Говорейки като гражданин, винаги ставам малко недоумяващ, когато хората, които казват „Това е твърде опасно“, са хората, които имат знанията“, казва Джоел Пино, вицепрезидент за изследванията на Al в Meta и професор в университета Макгил.

Meta позволява на изследователите достъп до версии на своите модели Al, заявявайки, че се надява външни лица да могат да ги изследват за имплицитни пристрастия и други недостатъци. Пино възхвалява този вид работа, но също така признава, че скоростта, с която кодът стана достъпен, е обезпокоителна. „Не сме радостни от изтичането“, казва тя.

Може никога да няма окончателен отговор дали OpenAI или Meta имат правилната идея - дебатът е само най-новата версия на една от най-старите битки в Силиконовата долина. Но техните различни пътища подчертават как решенията за поставяне на предпазни мерки на AI се вземат изцяло от ръководители на няколко големи компании.

Това има ясен отзвук от възхода на социалните медии, друга разрушителна технология, която се развива с оскъдно регулиране. Въпреки че AI е далеч по-различен от социалните медии, много от играчите, участващи в тази треска за злато, също бяха наблизо за нея. Услугите бяха дълбоко вкоренени от времето, когато политиците започнаха да се опитват да реагират сериозно, и може би са постигнали много малко. През 2015 г. все още изглеждаше, че има много време да се справят с всичко, което AI ще донесе. Днес това изглежда по-малко вярно.