ЕС планира по-строги правила за най-мощните модели генеративен изкуствен интелект

Европейският съюз се опитва да постави основни преградни мерки за използването на генеративни модели изкуствен интелект, от компаниите. В бъдеще ще трябва да минават през "червени отбори", за да се гарантира сигурност.

14:12 | 18 октомври 2023
Обновен: 14:39 | 18 октомври 2023
Автор: Алберто Нардели,Джилиан Дойч
Снимка: Bloomberg L.P.
Снимка: Bloomberg L.P.

Според проектопредложение, видяно от Bloomberg, Европейският съюз обмисля тристепенен подход към регулирането на генеративните модели и системи с изкуствен интелект - част от новаторските усилия за обуздаване на бързо развиващата се технология.

В документа се посочва, че трите нива ще установят правила за различните модели на основата - системите с изкуствен интелект, които могат да бъдат адаптирани към различни задачи - и ще изискват допълнителни външни тестове за най-мощните технологии.

ЕС е напът да се превърне в първата западна власт, която ще въведе задължителни правила за изкуствения интелект. Съгласно предложеното законодателство, известно като „AI Act”, системите, които предсказват престъпления или сортират кандидатури за работа, ще трябва да преминат през оценка на риска, наред с други изисквания. Преговарящите искат да усъвършенстват законодателството на следващата среща на 25 октомври, като целта е то да бъде финализирано до края на годината.

Съгласно предложените правила първата категория включва всички “Foundation models”(модел за машинно самообучение, трениращ с огромен брой данни). Второто ниво на "много способни" системи ще се отличава по количеството изчислителна мощност, използвана за обучение на техните големи езикови модели - алгоритмите, които използват огромни масиви от данни за развиване на способностите на изкуствен интелект. Тези модели биха могли "да надхвърлят сегашното състояние на техниката и може все още да не са напълно разбрани", според предложението.

И накрая, трета категория, известна като мащабни системи за изкуствен интелект с общо предназначение, ще включва най-популярните инструменти за изкуствен интелект и ще се измерва по общия брой потребители.

Европейската комисия не беше открита веднага за коментар.

След пускането на ChatGPT на OpenAI миналата година инструментите за генеративен изкуствен интелект станаха изключително популярни и накараха голяма част от технологичната индустрия да се опита да разработи свои собствени версии. Софтуерът за генериращ изкуствен интелект може да отговаря на прости подкани с текст, снимки и видео въз основа на големите си езикови модели, често със странно ниво на умения.

ЕС все още е изправен пред редица ключови въпроси, свързани с подхода към технологията, включително как точно да регулира генеративния изкуствен интелект и дали да забрани напълно сканирането на лица на живо в тълпи. Плановете на Парламента и Съвета на ЕС предизвикаха критики, че правителството може да възпрепятства способността на по-малките компании да се конкурират с големите технологични гиганти.

На среща по-рано този месец представителите на трите институции на ЕС подкрепиха стъпаловидния подход, но технически експерти разработиха по-конкретно предложение. Въз основа на документа от 16 октомври, видян от Блумбърг, идеите вече придобиват форма, въпреки че могат да се променят в хода на преговорите.

Ето как ЕС би могъл да се справи с тези три модела:

1. Всички основополагащи модели

Разработчиците на изкуствен интелект ще подлежат на изисквания за прозрачност, преди да пуснат какъвто и да е модел на пазара. Те ще трябва да документират модела и процеса на неговото обучение, включително резултатите от вътрешните усилия на "червения екип" - когато независими експерти се опитват да подтикнат моделите към лошо поведение. Също така ще се извършва оценка въз основа на стандартизирани протоколи.

След като даден модел бъде пуснат на пазара, компаниите ще трябва да предоставят информация на предприятията, които използват технологията, и да им дадат възможност да тестват моделите на основата.

Компаниите ще трябва да включат "достатъчно подробно" резюме на съдържанието, което са използвали за разработване на моделите си, и как управляват въпросите, свързани с авторските права, включително като гарантират, че притежателите на права могат да се откажат от използването на тяхното съдържание за обучение на модели. Дружествата също така трябва да гарантират, че съдържанието на изкуствен интелект може да бъде различимо от други материали.

Преговарящите предложиха да дефинират модела на основата като система, която може "компетентно да изпълнява широк спектър от различни задачи".

2. “Foundation models” с много големи възможности

Компаниите, които произвеждат такъв калибър технологии, ще се придържат към по-строги правила. Преди да бъдат пуснати на пазара, тези модели ще трябва да преминават през редовен „червен отбор“ от външни експерти, които ще бъдат проверявани от новосъздадената Служба за изкуствен интелект на ЕС. Резултатите от тези тестове ще се изпращат на тази агенция.

Комапниите ще трябва да въведат и системи за откриване на системни рискове. След като тези модели бъдат пуснати на пазара, ЕС ще задължи независими одитори и изследователи да извършват проверки за съответствие, включително да проверяват дали дружествата спазват правилата за прозрачност.

Преговарящите обмислят и създаването на форум, в който компаниите да обсъждат най-добрите практики, както и доброволен кодекс на поведение, който да бъде одобрен от Европейската комисия.

“Foundation models” с много добри възможности ще бъдат класифицирани въз основа на изчислителната мощност, необходима за обучението им, като се използва показател, известен като FLOPS (операции с плаваща запетая в секунда). Точният праг ще бъде определен от Комисията на по-късен етап и ще бъде актуализиран при необходимост.

Комапниите могат да оспорят тази оценка. И обратното, Комисията може да сметне даден модел за много способен, дори и да не отговаря на прага след проведено разследване. Преговарящите обмислят и използването на "потенциалното въздействие" на модела - въз основа на броя на високорисковите приложения на изкуствен интелект, които са изградени върху него - като начин за категоризиране на технологията.

3. Системи за изкуствен интелект с общо предназначение.

Тези системи ще трябва да бъдат подложени на тест на „червен отбор“ от външни експерти, за да се идентифицират уязвимостите, а резултатите ще бъдат изпратени на Службата за изкуствен интелект на Комисията. Дружествата ще трябва да въведат и система за оценка и намаляване на риска.

ЕС ще счита, че всяка система, която има 10 000 регистрирани бизнес потребители или 45 милиона регистрирани крайни потребители, е мащабна GPAI(Global Partnership on Artificial Intelligence). По-късно Комисията ще определи как да се изчислява броят на потребителите.

Дружествата могат да обжалват статута си на мащабна система с изкуствен интелект с общо предназначение и по същия начин ЕС може да накара други системи или модели да се придържат към тези допълнителни правила - дори ако не отговарят на праговете, но могат да "породят рискове".

Необходима е допълнителна дискусия, за да се определят предпазни мерки, които да гарантират, че незаконно и вредно съдържание не се генерира както от системи с изкуствен интелект с общо предназначение, така и от много способни системи с изкуствен интелект.

Допълнителните правила за изкуствен интелект с общо предназначение в мащаб и за много способните на “Foundation models” ще се контролират от новата служба за изкуствен интелект. Тя би могла да изисква документи, да организира тестове за съответствие, да създава регистър на проверените червени тестери и да провежда разследвания, според документа. Агенцията би могла дори да спре даден модел "в краен случай".

Агенцията, макар и разположена в рамките на Комисията, ще бъде "самостоятелна". ЕС би могъл да получи пари за наемане на хора за службата, като използва такса от “Foundation models” за изкуствен интелект с общо предназначение в голям мащаб и с големи възможности.