AI законът на ЕС се нужда от кратко отлагане, а не от пълно прекратяване

Според експерти ЕС трябва да приложи закона за високорисков AI, но да отложи регулациите за генеративните модели

13 July 2025 | 10:30
Автор: Парми Олсън
Редактор: Волен Чилов
Снимка: Bloomberg L.P.
Снимка: Bloomberg L.P.

В арсенала на всеки, който се опитва да обърне посоката на развитие на изкуствения интелект, има един общ инструмент: паузата. Преди две години Елон Мъск и други технологични лидери публикуваха отворено писмо, в което призоваха технологичните компании да забавят развитието на изкуствения интелект с шест месеца, за да защитят по-добре човечеството. Сега целта е променена. В условията на нарастващ страх от изоставане в надпреварата за създаване на по-умни от хората компютри, група европейски корпоративни лидери насочват оръдието на „отлагането“ срещу Европейския съюз, самопровъзгласилия се за световен полицай по отношение на изкуствения интелект.

Подобно на техноентусиастите, които искаха да ограничат изкуствения интелект преди две години, това е грубо предложение, което пропуска тънкостите на това, което се опитва да адресира. Пълното замразяване на прилагането на правилата за изкуствения интелект няма да помогне на Европа да настигне САЩ и Китай, както вече твърдят повече от 45 компании. Това пренебрегва по-фундаментален проблем, свързан с финансирането, от което технологичните стартъпи в региона отчаяно се нуждаят, за да увеличат мащаба си и да се конкурират с по-големите си съперници от Силициевата долина. Идеята, че Европа трябва да избира между това да бъде новатор и регулатор, е успешно разказвана от лобистите на големите технологични компании, които най-много ще се възползват от по-лек регулираторен режим.

Но това не означава, че самият закон за изкуствения интелект не може да бъде отложен, дори и в ограничена форма, за каквато призоваха фирми като ASML Holding NV, Airbus SE и Mistral AI в публикуваното в четвъртък писмо „Спри часовника“, в което се иска от председателя на Европейската комисия Урсула фон дер Лайен да отложи правилата, които те наричат „неясни, припокриващи се и все по-сложни“.

В това отношение те имат право, но само за онази част от закона от 180 страници, която беше набързо добавена при заключителните преговори, за да се обърне внимание на моделите на изкуствения интелект с „общо предназначение“ като ChatGPT. Актът в първоначалния си вид е изготвен първоначално през 2021 г., почти две години преди ChatGPT да предизвика бума на генеративния изкуствен интелект. Той имаше за цел да регулира високорисковите AI системи, използвани за диагностициране на заболявания, даване на финансови съвети или контрол на критична инфраструктура. Тези видове приложения са ясно дефинирани в закона - от използването на изкуствен интелект за определяне на правото на дадено лице на здравни помощи до контролиране на водоснабдяването. Преди да бъде внедрен такъв изкуствен интелект, законът изисква той да бъде внимателно проверен както от неговите създатели, така и от компаниите, които го внедряват.

Ако болница иска да внедри система за изкуствен интелект за диагностициране на медицински състояния, това ще се счита за „високорисков изкуствен интелект“ по силата на закона. Доставчикът на изкуствен интелект не само ще трябва да тества своя модел за точност и пристрастия, но и самата болница трябва да има служители, които да наблюдават системата, за да следят нейната точност с течение на времето. Това са разумни и ясни изисквания.

Правилата обаче не са толкова ясни в по-новия раздел за системите с изкуствен интелект с общо предназначение, изготвен през 2023 г. в отговор на моделите с генеративен изкуствен интелект като ChatGPT и генератора на изображения Midjourney. Когато тези продукти излязоха на сцената, изкуственият интелект изведнъж можеше да изпълнява безкрайно много задачи и Брюксел се справи с това, като направи правилата си по-широки и, за съжаление, неясни.

Проблемите започват на стр. 83 от акта в раздела, в който се твърди, че се определя моментът, в който система с общо предназначение като ChatGPT представлява системен риск: когато тя е обучена с използване на повече от 10 на 25-та степен - или 10^25 - операции с плаваща запетая (FLOPs), което означава, че компютрите, провеждащи обучението, са извършили най-малко 10 000 000 000 000 000 000 000 000 000 000 000 000 000 изчисления по време на процеса.

В акта не се обяснява защо това число е значимо или какво го прави толкова опасно. Освен това изследователи от Масачузетския технологичен институт са показали, че по-малки модели, обучени с висококачествени данни, могат да съперничат на възможностите на много по-големи модели.

Междувременно подобни технически прагове не се използват за определяне на значението на „изкуствения интелект с общо предназначение„“ или „способностите с голямо въздействие“, което ги прави отворени за тълкуване и разочароващо двусмислени за компаниите.

„Това са задълбочени научни проблеми“, казва Петър Цанков, главен изпълнителен директор на LatticeFlow AI, който ръководи компаниите при спазването на разпоредби като Закона за изкуствения интелект. „Сравнителните критерии са непълни.“

Брюксел не трябва да спира целия си AI акт. Трябва да спази графика, за да започне да прилага правилата за високорисковите системи с ИИ в здравеопазването и критичната инфраструктура, когато те бъдат въведени през август 2026 г. Въпреки това правилата за „общия“ изкуствен интелект влизат в сила много по-рано - след три седмици - и те се нуждаят от време за усъвършенстване. Цанков препоръчва още две години, за да бъдат правилно разработени.

Европейският закон за изкуствения интелект би могъл да създаде така необходимата прозрачност в сектора на изкуствения интелект и ако той влезе в сила следващия месец, компании като OpenAI ще бъдат принудени да предоставят поверителни подробности за своите данни и процеси на обучение. Това би било благословия за независимите изследователи в областта на етиката, които се опитват да проучат колко вреден може да бъде изкуственият интелект в области като психичното здраве. Но ползите ще бъдат краткотрайни, ако неясните правила позволят на компаниите да се измъкнат или да намерят правни вратички, за да се измъкнат.

Хирургическа пауза по отношение на най-неясните части на закона би помогнала на Брюксел да избегне правния хаос и да се увери, че когато правилата се въведат, те ще работят.

Парми Олсън е колумнист на Bloomberg, който се занимава с технологии. Бивш репортер на Wall Street Journal и Forbes, тя е автор на книгата „Превъзходство: AI, ChatGPT и надпреварата, която ще промени света.“