OpenAI, Anthropic и Google се обединяват срещу кражбата на технологии от Китай

Случаят с модела R1 на DeepSeek се превърна в повратна точка за стратегията на САЩ в глобалната AI надпревара

7 April 2026 | 18:30
Автор: Ширин Гафари и Маги Ийстланд
Редактор: Волен Чилов
Снимка: Bloomberg L.P.
Снимка: Bloomberg L.P.
  • OpenAI, Google и Anthropic се обединяват чрез Frontier Model Forum, за да споделят данни и да блокират опитите на китайски компании да копират техните технологии.
  • „Враждебната дестилация“ позволява на конкуренти като DeepSeek да създават евтини имитации на американски модели, което коства на Силициевата долина милиарди долари годишно.
  • Експерти предупреждават, че дестилираните модели често нямат вградени предпазни механизми, което позволява на злонамерени лица да ги използват за опасни дейности.

Конкурентите OpenAI, Anthropic PBC и Google на Alphabet Inc. се обединяват в опит да попречат на конкурентите от Китай да извличат данни от най-модерните американски модели за изкуствен интелект в стремежа си да се наложат в глобалната AI надпревара.

Трите компании обменят информация чрез Frontier Model Forum – нестопанска организация, основана от тях заедно с Microsoft Corp. през 2023 г., за да откриват т.нар. „враждебни опити за дестилация“, които нарушават условията им за ползване, според запознати с въпроса.

Това рядко сътрудничество подчертава сериозността на опасенията, изразени от американските AI компании, че някои потребители, особено в Китай, създават имитационни версии на техните продукти, които могат да ги подбият по цена и да им отнемат клиенти, като същевременно представляват риск за националната сигурност.

САЩ оценяват, че неразрешената дестилация струва на лабораториите в Силициевата долина милиарди долари годишна печалба, посочва лице, запознато с констатациите, което ги оповести анонимно.

OpenAI потвърди, че участва в усилията за обмен на информация относно неправомерното копиране чрез Frontier Model Forum и посочи неотдавнашно писмо до Конгреса.

В него компанията обвинява китайската фирма DeepSeek, че се опитва да „се възползва безплатно от възможностите, разработени от OpenAI и други водещи лаборатории в САЩ“. Google, Anthropic и Frontier Model Forum са отказали да коментират пред Bloomberg News.

Какво е дестилацията?

Дестилацията е метод, при който по-стар AI модел, наречен „учител“, се използва за обучение на по-нов модел, наречен „ученик“, който възпроизвежда възможностите на по-ранната система, често при значително по-ниски разходи, отколкото създаването на изцяло нов модел.

Някои форми на дистилация са широко приети и дори насърчавани от лабораториите за изкуствен интелект, например когато компаниите създават по-малки и по-ефективни версии на собствените си модели или позволяват на външни разработчици да използват метода за създаване на технологии, които не представляват конкуренция.

Все пак дестилацията е била спорна, когато се използва от трети страни — особено от враждебни държави като Китай или Русия, за да възпроизвеждат патентована работа без разрешение.

Водещи американски лаборатории за изкуствен интелект са предупредили, че чуждестранни конкуренти могат да използват техниката, за да разработват модели на изкуствен интелект, лишени от предпазни мерки за безопасност, като например ограничения, които биха попречили на потребителите да създадат смъртоносен патоген.

Повечето модели, създадени от китайски лаборатории, са с отворен код, което означава, че части от основната система за изкуствен интелект са публично достъпни, за да могат потребителите свободно да ги изтеглят и използват на свои собствени платформи, което ги прави по-евтини за използване.

Това представлява икономическо предизвикателство за американските AI компании, които са патентовали моделите си. Те разчитат, че клиентите ще плащат за достъп до техните продукти и ще помогнат да се компенсират стотиците милиарди долари, похарчени за центрове за данни и друга инфраструктура.

Моментът DeepSeek

Дестилацията за първи път стана обект на сериозно внимание през януари 2025 г., в седмиците след като DeepSeek публикува моделът R1 за логическо мислене, който разтърси света на изкуствения интелект. Скоро след това Microsoft и OpenAI проведоха разследване дали китайският стартъп е извлякъл неправомерно големи количества данни от моделите на американската компания, за да създаде R1, както съобщи по-рано Bloomberg.

През февруари OpenAI предупреди Конгреса, че DeepSeek продължава да използва все по-сложни тактики за извличане на резултати от американските модели, въпреки усилията да се предотврати злоупотребата с продуктите им. В меморандум до Комитета за Китай на Камарата на представителите OpenAI твърди, че DeepSeek разчита на дестилацията, за да разработи нова версия на чатбота си.

Споделянето на информация между американските AI компании относно враждебната дестилация е в съответствие със стандартната практика в индустрията за киберсигурност, където фирмите редовно обменят данни за атаки и тактики на противниците като начин за укрепване на мрежовата защита.

Чрез съвместната си работа AI фирмите по подобен начин се стремят да откриват по-ефективно подобна практика, да идентифицират отговорните лица и да предотвратяват успеха на неоторизирани потребители.

Представители на администрацията на Тръмп дадоха сигнал, че са отворени към насърчаване на обмена на информация между компаниите за изкуствен интелект, за да ограничат дестилацията. Планът за действие в областта на изкуствения интелект, представен от президента Доналд Тръмп миналата година, предвижда създаването на център за обмен и анализ на информация, отчасти с тази цел.

Засега обменът на информация относно дестилацията остава ограничен поради несигурността сред компаниите за изкуствен интелект относно това какво може да се споделя съгласно съществуващите антимонополни указания за противодействие на конкурентната заплаха от Китай, посочват запознати с въпроса източници. Според тях фирмите биха спечелили от по-голяма яснота от страна на американското правителство.

Основно притеснение и „заплаха за националната сигурност“

Дестилацията е сред основните притеснения на американските разработчици на изкуствен интелект, откакто DeepSeek разтърси световните пазари през 2025 г. В Китай продължават да се разпространяват високоефективни модели с отворен код, а много хора в бранша следят отблизо за евентуално значително подобрение на модела на DeepSeek.

Миналата година Anthropic блокира достъпа на компании, контролирани от Китай, до своя чатбот Claude, а през февруари идентифицира три китайски лаборатории за изкуствен интелект – DeepSeek, Moonshot и MiniMax – като незаконно извличащи възможностите на модела чрез дестилация.

Тази година Anthropic заяви, че заплахата „се простира отвъд която и да е отделна компания или регион“ и представлява риск за националната сигурност, тъй като дестилираните модели често не разполагат с предпазни механизми, предназначени да попречат на злонамерени лица да използват инструменти за изкуствен интелект за злонамерени дейности.

Google публикува публикация в блога си, в която посочва, че е установила увеличение на опитите за извличане на модели. Трите американски лаборатории за изкуствен интелект все още не са предоставили доказателства, че моделите на Китай разчитат на дестилация, но отбелязват, че разпространението на атаките може да се измери въз основа на обема на заявките за данни в голям мащаб.