Париж бе домакин на представители от над 100 страни тази седмица, за да обсъдят бъдещето на изкуствения интелект. Резултатът бе неясно споразумение, подписано от 60 от тях, което почти не допринася за по-голямата безопасност на технологията.
Знак за това бе още промяната в името. Международната среща, учредена във Великобритания през 2023 г. като „Среща на върха за безопасността на ИИ“ („AI Safety Summit“), стана известна като „Среща на върха за действия в областта на ИИ“ („AI Action Summit“) в Париж. Президентът Еманюел Макрон използва събитието, за да обяви инвестиция от 109 милиарда евро (113 милиарда долара) в ИИ и да представи на света амбициите на френския технологичен сектор.
В цялата тази поредица от общи приказки, свързани със сигурността, бе нужно наистина да се вгледате внимателно, за да намерите нещо по темата. Финалното изявление от 799 думи се фокусира повече върху икономическите възможности на ИИ, отколкото върху утвърждаването на мерките, заложени в предишните форуми в Обединеното кралство и Южна Корея.
Докато срещите в Блетчли Парк и Сеул постигнаха конкретни ангажименти от големите фирми в областта на ИИ да тестват системите си чрез новосъздадена международна мрежа от институти за безопасност, парижкото изявление призовава към мъгляви цели като ИИ, който да бъде „достоен за доверие“.
Учудващо е, че дори това се оказа прекалено тежко за САЩ, чийто вицепрезидент Джей Ди Ванс се оплака, че „прекомерното регулиране на сектора на ИИ може да убие една преобразуваща индустрия точно когато набира скорост“.
Първо, споразумението далеч не беше прекомерно. И второ, индустрията на ИИ в САЩ отдавна не е в зародишна фаза. Американските компании са водещи в сектора, като Nvidia Corp. практически държи монопол върху чиповете за обучение и изпълнение на модели, а Microsoft Corp. и Alphabet Inc. контролират голяма част от облачната инфраструктура и най-популярните модели на ИИ.
Но САЩ така или иначе отказаха да подпишат споразумението, вероятно поради нарастваща параноя около Китай. Миналия месец малка китайска компания, наречена DeepSeek, се изкачи до върха на класациите за приложения със свой модел на ИИ, който беше толкова добър, колкото и последната версия на ChatGPT, и по-евтин за създаване, при това достъпен за всеки – за ползване и копиране. Може да сте сигурни, че инженерите в Силициевата долина вече проучват този модел.
Още по-странно е, че Обединеното кралство също отказа да подпише документа, но по противоположната причина. „Смятаме, че декларацията не даде достатъчно практическа яснота за глобалното управление“, заяви говорител на правителството.
Това звучи далеч по-разумно. Да припомним: развитието на ИИ се движи с безпрецедентна скорост, а системите му се насочват към вземане на решения с висок залог в здравеопазването, правоприлагането и финансите, без ясно определени правила. Неясните обещания са „крачка назад за международното и техническо сътрудничество“, твърди Макс Тегмарк, професор по физика в Масачузетския технологичен институт и съосновател на Future of Life Institute, който е сред водещите гласове в защита на мерки за безопасност при ИИ.
Според него срещата в Париж е трябвало поне да вземе предвид опасенията за сигурността, повдигнати от Международния доклад за безопасност на ИИ от миналия месец, подписан от над 150 експерти. Също така е трябвало да се превърнат „доброволните ангажименти“ от срещите в Блетчли Парк и Сеул в изисквания за компаниите, занимаващи се с ИИ, да провеждат тестове за безопасност, преди да пускат нови системи за обществено ползване – и да споделят резултатите.
Полезно би било и да се види краен срок за въвеждане на задължителни международни закони, както и по-ясни прагове, при които даден ИИ достига определено ниво на способности (например в разсъжденията или скоростта), за да задейства допълнителни одити.
Не бива да чакаме да се случи катастрофа, преди правителствата да се пробудят за рисковете на тази преобразуваща технология. Не бива да повтаряме закъснелия отговор, който видяхме при безопасността на автомобилите, когато бяха нужни хиляди жертви, за да станат предпазните колани задължителни през 60-те години на миналия век.
Наскоро Джефри Фаулър от Washington Post разказа един показателен случай за това как нещата биха могли да се объркат. Той оставил нова „агентна“ версия на ChatGPT без надзор на компютъра си с достъп до кредитната му карта. След като го помолил да намери най-евтините яйца, ботът влязъл в Instacart и купил 12 яйца на по-висока цена, натрупвайки такси и бакшиш на стойност 31 долара. „Забегна в свои води“, пише Фаулър.
Това може и да не е толкова лошо, колкото ако ИИ парализира електрическите мрежи или финансовите пазари, но примерът показва, че грешките в тези системи имат своята цена и могат да се появят от нищото, дори докато бизнесът и правителствата се надпреварват да ги внедрят.
Призивът на Ванс да поставим „подкрепящите растежа“ политики преди безопасността би звучал нелепо, ако ставаше дума за здравеопазване, авиация или социални мрежи. Изкуственият интелект не бива да бъде изключение. Правителствата трябва да бъдат по-смели в ролята си на проактивни регулатори и да подчертават важността на стандартите, правата и защитата. Това може и да не им спечели много точки сред бизнеса в и извън технологичния сектор, но е далеч по-добре, отколкото да чакат бедствието да се случи. Следващата среща в Кигали, Руанда, трябва да установи по-конкретен надзор, преди грешките на ИИ да се разраснат от непредвидени покупки на продукти до нещо далеч по-сериозно.