ChatGPT спечели правото си да се саморегулира. Това може да се развие зле
Смяна на курса: Водещи държави отслабват правилата си за AI в името на икономическия интерес, като по този пренебрегват някои ключови рискове
Редактор: Волен Чилов
Бившият британски министър-председател Риши Сунак преди време смяташе, че изкуственият интелект е толкова рисков, че през 2023 г. организира първата в света „Среща на върха за безопасността на изкуствения интелект“, на която покани политици и Илон Мъск, който дълго време се занимаваше с изкуствен интелект, за да обсъдят мерки за защита на бума, предизвикан от ChatGPT. Две години по-късно мнението му значително се е смекчило.
„Правилното нещо, което трябва да се направи тук, е да не се регулира“, каза ми той миналия месец на Форума за нова икономика на Bloomberg, като заяви, че компании като OpenAI „работят много добре“ с изследователи по сигурността в Лондон, които тестват моделите им за потенциални вреди.
Тези фирми доброволно са се съгласили да бъдат одитирани. Когато посочих, че в бъдеще може да променят мнението си, Сунак отговори: „Засега не сме стигнали до този момент, което е добре“. Но какво ще се случи, когато това стане?
Преломът на Сунак от думите му, че Великобритания трябва да бъде „домът на регулацията на безопасността на изкуствения интелект“, до желанието му да не се въвежда никакво законодателство, отразява тенденцията, която се наблюдава в правителствата по света.
Зад нея стои стремежът да се извлече полза от технологиите, които биха могли да съживят стагниращите икономики, и усещането, че не са необходими строги правила без ясни доказателства за широко разпространени вреди.
Но изчакването на криза преди регулирането е рисковано, когато новите технологии се разпространяват толкова бързо. ChatGPT може би е най-бързо разпространяващият се софтуер на всички времена, който се използва редовно от 10% от световното население само три години след пускането му на пазара.
Възможно е също така той да промени формата на мозъците ни. Компанията OpenAI, която го управлява, е съдена от семействата на много хора, които са изпадали в заблуди или са се самоубивали, след като са прекарвали часове в ChatGPT. Една от групите за кампании е събрала историите на повече от 160 души, които твърдят, че тя е навредила на психичното им здраве.
Междувременно изкуственият интелект се отразява пагубно на домашните работи в училище, утвърждава стереотипи, предизвиква нов вид зависимост и се занимава с кражба на художествени произведения.
Всичко това остана на заден план в условията на технологичен хайп, в който се включиха дори бивши защитници на безопасността. Сунак, например, е поел консултантски функции в компаниите за изкуствен интелект Anthropic PBC и Microsoft Corp. И въпреки че е обещал заплатата си за благотворителност, тези отношения ще бъдат ценни, ако напусне политиката.
Мъск, който се опасяваше от екзистенциалните рискове на изкуствения интелект, мълчи по темата, откакто основа xAI Corp., фирмата, която стои зад чатбота Grok. Но захвърлянето на предпазливостта в преследване на несигурни икономически ползи може да се отрази неблагоприятно на правителствата.
Изглежда, че както на Запад, така и в Азия е настъпила епохата на регулаторна снизходителност. САЩ преминаха от издаването на изпълнителна заповед при президента Джо Байдън за изграждане на по-безопасен изкуствен интелект през 2023 г. до забраната на нейното прилагане при Доналд Тръмп.
Настоящата администрация ускорява износа на центрове за данни и чипове, за да победи Китай, и се опитва да блокира законодателството за изкуствения интелект на щатско ниво, за да може технологичният бизнес да процъфтява.
В същото време милиардери от Силициевата долина като Марк Андресен са отделили десетки милиони долари за лобиране срещу всякакви бъдещи ограничения за изкуствения интелект.
Обединеното кралство има опит в създаването на бързи и разумни технологични регулации, но също така изглежда малко вероятно да се справи с генеративния изкуствен интелект.
Европейският съюз отложи някои от най-строгите разпоредби на своя Акт за изкуствения интелект до 2027 г., а Кодексът за практиките на този регламент беше отложен. Европейските правила за защита на личните данни в цифровата среда някога бяха образец за други правителства, но изглежда малко вероятно т.нар. ефект на Брюксел да обезпокои изкуствения интелект.
Китай не прави изключение от тази тенденция на снизходителност. Комунистическата партия на страната въведе политики, целящи да подпомогнат процъфтяването на местните компании за изкуствен интелект.
Въпреки строгите правила, изискващи от фирмите за социални медии да регистрират алгоритмите си, за да предотвратят социални вълнения, подобни стандарти се прилагат само за чатботове или AI инструменти, които генерират изображения или видеоклипове.
Тези фирми трябва да обозначават дълбоките фалшификати и да тестват инструментите си, за да се уверят, че не генерират незаконно или политически чувствително съдържание.
По-мекият подход на Китай към фирмите за изкуствен интелект се дължи на факта, че ККП е основен клиент на техните инструменти, особено на технологиите за наблюдение, като например лицево разпознаване.
Пекин е инвестирал твърде големи средства в изкуствения интелект, за да задуши развитието му, а ограниченията на САЩ за износ на чипове и икономическият спад в страната само тласнаха Китай към растеж, а не към регулиране.
Това „предлага малка стойност за защита на китайската общественост“, смята Джан. Тя и други, работещи в областта на изследванията на сигурността, предупреждават за възможни инциденти с използването на изкуствения интелект, предизвикани от исторически небрежния подход на Китай към опасностите - от разработените от AI патогени до разрушаването на електрическите мрежи и петролопроводите.
Преобладаващата преценка сред правителствата е, че AI компаниите трябва да бъдат оставени да се саморегулират.
„Вижте, не мисля, че някой иска да пусне в света нещо, за което смята, че наистина би причинило значителни вреди“, каза Сунак.
Но непредвидените последици често възникват, когато технологичните специалисти започват с най-добри намерения за човечеството. Саморегулацията работи, докато не престане да работи.
Парми Олсън е колумнист на Bloomberg, който се занимава с технологии. Бивш репортер на Wall Street Journal и Forbes, тя е автор на книгата „Превъзходство: AI, ChatGPT и надпреварата, която ще промени света.“