Правителството на САЩ обеща да отстрани Anthropic от дейността си въпреки делата
Anthropic, производителят на чатбота Claude, заведе дело, за да блокира заповедта от Министерството на отбраната, че компанията представлява риск за веригата за доставки на САЩ
18 March 2026 | 09:30
Обновен:
18 March 2026 | 09:53
Автор:
Рейчъл Мец
Редактор:
Емил Соколов
- Администрацията на Тръмп твърди, че условията за ползване на AI на Anthropic са „неприемливи“ за националната сигурност и ще води правна битка за отстраняването ѝ от федералните агенции.
- Спорът се фокусира върху отказа на Anthropic да приеме клауза за „всякаква законна употреба“ от Пентагона и опасенията, че компанията може да ограничи или промени поведението на модела по време на операции.
- Anthropic иска временна съдебна забрана, докато тече делото; изслушване е насрочено за вторник.
Администрацията на Тръмп обеща правна битка, за да отстрани Anthropic PBC от всички агенции на правителството на САЩ след спор за това как ще бъде използвана технологията за изкуствен интелект на компанията.
„От съображения за националната сигурност общите условия за ползване на технологията за изкуствен интелект (AI) на ищеца Anthropic PBC станаха неприемливи за изпълнителната власт“, заяви Министерството на правосъдието на САЩ, което представлява правителството, във внесен във вторник съдебен документ.
Anthropic, производителят на чатбота Claude, заведе дело, за да блокира заповедта от Министерството на отбраната, че компанията представлява риск за веригата за доставки на САЩ, като по този начин изостри високорисков спор за предпазните мерки при военната употреба на AI технологии.
Anthropic, която иска ограничения върху начина на внедряване на продуктите ѝ, твърди, че продължителна правна битка може да ѝ струва милиарди долари пропуснати приходи.
Компанията настоява съдът да издаде предварителна забрана (preliminary injunction), която да попречи правителствената забрана да остане в сила, докато тече съдебният спор.
За какво е спорът в съда
В документа си адвокатите на Министерството на правосъдието твърдят, че по време на преговорите в началото на 2026 г. между Министерството на отбраната и Anthropic за добавяне на клауза към договора, която да позволява на Пентагона да използва технологията „за всякаква законна цел“, Anthropic „отказала“ да приеме условието заради политиките си за използване на Claude.
По време на преговорите „поведението на Anthropic като цяло накара ведомството да се усъмни дали Anthropic е надежден партньор, с когото е готово да сключва договори в тази изключително чувствителна област“, се казва в документа.
Агенцията също така се притеснила, че ако позволи на Anthropic да продължи да има достъп до техническите и оперативните ѝ системи, свързани с бойни действия, това „би внесло неприемлив риск“ във веригите за доставки на Министерството на отбраната, според подаденото становище.
„В крайна сметка AI системите са изключително уязвими към манипулация, а Anthropic би могла да се опита да деактивира своята технология или предварително да промени поведението на модела си - преди или по време на текущи бойни операции - ако Anthropic, по свое усмотрение, сметне, че корпоративните ѝ „червени линии“ са прекрачени“, пишат адвокатите.
Емил Майкъл, заместник-министър на отбраната на САЩ по научноизследователска и инженерна дейност (Under Secretary of Defense for Research and Engineering), заявява в отделно становище, че Anthropic е проявила „враждебност“ в преговорите с Пентагона. Компанията „изглежда възприема преговорна позиция, която има за основна цел да подобри публичното ѝ възприятие и не е основана на истина или факти“, добавя той.
Говорител на Anthropic заяви, че компанията преглежда внесения от правителството документ. Изслушване е насрочено за вторник.
„Търсенето на съдебен контрол не променя дългогодишния ни ангажимент да използваме AI за защита на националната сигурност, но това е необходима стъпка, за да защитим бизнеса си, клиентите си и партньорите си“, каза говорителят.
Преминаване към други доставчици и срокът „до шест месеца“
По указание на президента Доналд Тръмп Пентагонът и други федерални агенции пренасочват работата си по AI към други доставчици въз основа на рискова квалификация, която обикновено е запазена за компании от държави, които САЩ смятат за противници. Стартъпът беше поискал гаранции от правителството, че неговият AI няма да се използва за масово наблюдение над американци или за разполагане на автономни оръжия.
Министърът на отбраната Пийт Хегсет, в публикация в социалните мрежи от 27 февруари, заяви, че американската армия ще продължи да използва технологичните инструменти на Anthropic „не повече от шест месеца, за да се осигури плавен преход към по-добра и по-патриотична услуга“.