Ник Клег: От AI компаниите трябва да се изисква повече прозрачност

Ник Клег, бивш вицепремиер на Обединеното кралство, бивш президент по глобалните въпроси на Meta, автор на „Как да спасим интернет“.

18 November 2025 | 19:33

Преводач: Петя Кушева

Аргументът ви за безопасността онлайн, благодарение на рекламата - защо Meta не допуска одити от трети страни на своите алгоритми? Няма ли смисъл това?

Честно казано, не съм сигурен как би изглеждал един одит на алгоритми.

Определено обаче мисля - и обяснявам това подробно в книгата, че от компаниите трябва да се изисква постоянно да са по-прозрачни. Особено в ерата на изкуствения интелект.

Как сглобяват тези много мощни модели на изкуствен интелект, които разработват?

Какъв вид данни за обучение използват?

Да дадат на хората много повече яснота как точно са изградени тези основни модели.

Да дават на хората много по-голям контрол върху взаимодействието с ботове с изкуствен интелект и т.н.

Дали става въпрос за прозрачност, потребителски контрол, много по-строга и проверка на възрастта в приложението, за да знаете на каква възраст са потребителите. Особено тийнейджърите, когато използват приложенията. Всички тези неща могат и със сигурност трябва да се правят.

Брюксел обмисля промяна на своя Закон за изкуствения интелект в ЕС и закона за защита на данните, това ли е правилният подход?

Брюксел направи ужасна каша с изкуствения интелект.

Започна законодателния процес за изкуствения интелект, преди дори да бъде изобретен ChatGPT.

Вместо да натиснат бутона за пауза, те продължават.

Спомням си, че говорих със служители на ЕС по това време и казах: Вижте, технологията, която се опитвате да регулирате, сега е напълно променена до неузнаваемост. Просто спрете. Няма първа награда в това да бъдеш първият, който регулира. Много по-добре е да регулираш по ефективен начин, отколкото просто да бъдеш първият, който го прави.

Но вместо това те се втурнаха напред.

Опитаха се да адаптират бързо куп допълнителни разпоредби към този закон отпреди ChatGPT.

Направиха го набързо, без напълно да разберат какво всъщност предполага генеративният изкуствен интелект.

И сега имат вариант на закон за изкуствения интелект от ЕС, който, ако прочетете някои репортажи във вестниците, е напълно предвидим. Както предвиждах аз тогава. Те се опитват да се измъкнат от куката, която сами са спуснаха.

Би било много по-разумно ЕС просто да се противопостави на начина, по който регулират изкуствения интелект и да разбере какво иска.

Но какви са нещата, които се опитвате да поправите? Какви са външните ефекти на тази технология, която се опитвате да поправите?

Дали е защитата на децата? Дали е защитата на уязвимите възрастни?

Дали е по-голяма прозрачност?

Как изобщо се създават тези модели?

Катастрофално ли е? Изложено ли е на риск?

Бъдете ясни относно рисковете, които се опитвате да смекчите, след което работете с други, защото тази технология не познава граници.

Опитайте да работите с американската администрация, работете с индийците, работете с други демокрации по света.

А те избързаха с несъвършен закон, основан на всеобхватни твърдения за риска, взети направо от заглавия във вестници по това време, вместо от хладен анализ.

И разбира се, сега се оказаха в такова ужасно затруднение, че ако продължат със закона, това само ще навреди на европейските компании за изкуствен интелект, докато се опитват да се конкурират с големите от Китай и Съединените щати.