САЩ и Великобритания ще си партнират при тестове и оценка на риска от AI

Съюзниците постигат първото в света двустранно споразумение, тъй като световните правителства се стремят да оценят и регулират рисковете от нововъзникващите технологии

19:09 | 4 април 2024
Автор: Антон Груев
САЩ и Великобритания ще си партнират при тестове и оценка на риска от AI

САЩ и Обединеното кралство подписаха забележително споразумение за изкуствения интелект (ИИ), като съюзниците станаха първите държави, които официално си сътрудничат за това как да тестват и оценяват рисковете от нововъзникващите модели, които използват изкуствен интелект, пише Financial Times.

Споразумението беше подписано в понеделник във Вашингтон от министъра на науката на Обединеното кралство Мишел Донелан и министъра на търговията на САЩ Джина Раймондо. То ще определя как двете правителства ще обединят технически знания, информация и таланти в областта на безопасността на ИИ. Споразумението представлява първата двустранна договорка в света относно безопасността на ИИ и идва в момент, когато правителствата настояват за по-строго регулиране на екзистенциалните рискове от новите технологии, като например използването им за разрушителни кибератаки или проектиране на биологични оръжия.

"Следващата година наистина ще трябва да действаме бързо, защото излиза следващото поколение модели с ИИ, които могат напълно да променят правилата на играта, а ние все още не знаем пълните възможности, които те ще предложат", каза Донелан пред Financial Times. Споразумението ще даде възможност на новия Институт за безопасност на изкуствения интелект на Обединеното кралство (AISI), създаден през ноември, и на неговия американски еквивалент, който все още не е започнал работа, да обменят опит чрез командироване на изследователи от двете страни.

Институтите ще работят заедно и по начините за независима оценка на частни модели на ИИ, създадени от компании като OpenAI и Google. Партньорството е създадено по модела на партньорството между правителствения отдел за комуникации на Обединеното кралство (GCHQ) и Агенцията за национална сигурност на САЩ, които работят в тясно сътрудничество по въпроси, свързани с разузнаването и сигурността.

"Фактът, че Съединените щати, които са голяма сила в областта на изкуствения интелект, подписват това споразумение с нас, Обединеното кралство, е показателен за това как ние сме водещи в областта на безопасността на изкуствения интелект", каза Донелан.

Тя добави, че тъй като много от най-напредналите компании в областта на ИИ в момента са базирани в САЩ, експертният опит на американското правителство е от ключово значение както за разбирането на рисковете от ИИ, така и за това компаниите да спазват своите ангажименти.

Донелан обаче настоя, че въпреки провеждането на изследвания за безопасността на ИИ и осигуряването на предпазни мерки, Обединеното кралство не планира да регулира технологията в по-широк план в близко бъдеще, тъй като тя се развива твърде бързо. Тази позиция е в контраст с други държави и региони.

ЕС прие своя Закон за изкуствения интелект, който се счита за най-строгия режим за използването на ИИ в света. Президентът на САЩ Джо Байдън издаде изпълнителна заповед, насочена към моделите на ИИ, които могат да застрашат националната сигурност. Китай издаде насоки, целящи да гарантират, че технологията няма да оспори дългогодишния му режим на цензура. Реймондо заяви, че ИИ е "определящата технология на нашето поколение".

"Това партньорство ще ускори работата на двата ни института в целия спектър от рискове, независимо дали за националната ни сигурност или за по-широкото ни общество", каза тя. "Партньорството ни ясно показва, че не бягаме от тези проблеми, а се стремим към тях. Благодарение на нашето сътрудничество институтите ни ще придобият по-добро разбиране за системите с изкуствен интелект, ще извършват по-стабилни оценки и ще издават по-строги насоки."

Подкрепяната от правителството на Обединеното кралство AISI, която се председателства от технологичния инвеститор и предприемач Иън Хогарт, е наела изследователи като Джефри Ървинг от Google DeepMind и Крис Съмърфийлд от Оксфордския университет, за да започне да тества съществуващи и непубликувани модели на ИИ. OpenAI, Google DeepMind, Microsoft и Meta са сред технологичните групи, които подписаха доброволни ангажименти да предоставят най-новите си генеративни модели на ИИ за преглед от британската AISI, създадена след британската среща на високо равнище по въпросите на безопасността на ИИ в Блетчли Парк.

Институтът е от ключово значение за амбицията на министър-председателя Риши Сунак Обединеното кралство да има централна роля в борбата с развитието на ИИ. Според лице, пряко запознато с въпроса, тестването е съсредоточено върху рисковете, свързани със злоупотребата с технологията, включително киберсигурността, като се опира на експертния опит на Националния център за киберсигурност в рамките на GCHQ. Донелан заяви, че тя и Раймондо планират да обсъдят общите предизвикателства, като например въздействието на ИИ върху предстоящите избори тази година. Министърът на науката добави, че ще обсъдят и необходимостта от компютърна инфраструктура за ИИ, "споделяйки нашите умения и как можем да задълбочим сътрудничеството си като цяло, за да от тях полза за обществото".