Пентагонът обмисля да прекрати договора си с Anthropic

Решението може да зададе рамката за бъдещи договори с OpenAI, Google и xAI

16 February 2026 | 18:30
Автор: Ейми Томсън
Редактор: Ивета Червенякова
снимка: Bloomberg LP
снимка: Bloomberg LP
  • Пентагонът може да класифицира Anthropic като риск за веригата на доставки
  • Компанията поставя ограничения върху използването за масово наблюдение и автономни оръжия
  • Правителството настоява за право на използване за „всякакви законни цели“

Пентагонът е напът да прекъсне връзките си с Anthropic и може да определи компанията за изкуствен интелект като риск за веригата на доставки, след като се разочарова от ограниченията за използването на технологията, съобщи Axios. 

Разривът идва след месеци на напрегнати преговори за това как военните могат да използват инструмента Claude, посочи Axios, позовавайки се на източник, запознат с преговорите, чието име се разкрива.

По-специално, Anthropic иска да се увери, че нейният изкуствен интелект не се използва за мащабен шпионаж на граждани или за разработване на оръжия, които могат да бъдат използвани без човешко участие, се казва в публикацията.

Правителството от своя страна иска да има възможност да използва Claude за „всякакви законни цели“.

Риск за веригата на доставки

Ако компанията за изкуствен интелект бъде определена като риск за веригата на доставки, всяка компания, която иска да прави бизнес с военните, ще трябва да прекъсне отношенията си с Anthropic, съобщи Axios, позовавайки се на високопоставен представител на Пентагона.

Говорителят на Пентагона Шон Парнел заяви пред Axios, че отношенията се преразглеждат. Говорител на Anthropic коментира пред Axios, че компанията води „продуктивни разговори в дух на добра воля“ с Министерството на отбраната и че остава ангажирана с използването на AI за националната сигурност. 

Представител на Anthropic не отговори веднага на запитването на Bloomberg за коментар.

Влияние върху бъдещите договори в сферата на AI

Миналата година Anthropic спечели двугодишен договор с Министерството на отбраната на САЩ, включващ прототип на AI моделите Claude Gov и Claude for Enterprise. Преговорите с Anthropic може да зададат тона на разговорите с OpenAI, Google и xAI, чиито технологии все още не се използват за класифицирана работа, заяви Axios.

Anthropic, основана от бивши учени от OpenAI, се позиционира като по-отговорна компания в сферата на изкуствения интелект, чиято цел е да избегне катастрофални щети от напредналите технологии.