Claude AI помогна за въздушните удари над Иран. Но как точно?

Изкуственият интелект ускорява вземането на решения във войната, но това често се случва за сметка на човешкия контрол и етичните стандарти

5 March 2026 | 06:44
Автор: Парми Олсън
Редактор: Волен Чилов
Снимка: Bloomberg L.P.
Снимка: Bloomberg L.P.
  • Пентагонът е използвал модела на Anthropic Claude за анализ на данни и идентифициране на цели при ударите срещу Иран, въпреки опитите на Тръмп да ограничи софтуера.
  • Използването на големи езикови модели за военни решения крие опасност от фатални грешки, тъй като тези системи често генерират невярна информация, награждавани за отговор вместо за точност.
  • Военното приложение на AI се случва в регулаторен вакуум, без яснота как алгоритмите вземат решения за живот и смърт и без механизми за отчетност при цивилни жертви.

Същият модел на изкуствен интелект, който може да ви помогне да съставите маркетингов имейл или бърза рецепта за вечеря, е бил използван и за атака срещу Иран.

Според информация на Wall Street Journal, Централното командване на САЩ е използвало изкуствения интелект Claude на Anthropic за „оценка на разузнавателна информация, идентифициране на цели и симулиране на бойни сценарии“ по време на ударите срещу страната.

Няколко часа по-рано американският президент Доналд Тръмп беше наредил на федералните агенции да спрат да използват Claude след спор с производителя му, но инструментът беше толкова дълбоко вграден в системите на Пентагона, че би отнело месеци да се премахне в полза на по-съвместим конкурентен продукт. Той беше използван и в операцията през януари, която доведе до залавянето на Николас Мадуро.

Но какво означават на практика „оценки на разузнавателна информация“ и „идентифициране на цели“? Дали Claude е маркирал местата за удари или е правил оценки на жертвите? Никой не е разкрил тази информация и, за съжаление, никой не е длъжен да го направи.

AI за военни цели

Изкуственият интелект отдавна се използва във войната за неща като анализ на сателитни изображения, откриване на киберзаплахи и насочване на системи за противоракетна отбрана. Но използването на чатботове – технологията, която милиарди хора използват за ежедневни задачи като писане на имейли – сега се използва и на бойното поле.

Миналия ноември Anthropic сключи партньорство с Palantir Technologies Inc., компания за анализ на данни, която работи много за Пентагона, превръщайки своя голям езиков модел Claude в двигател за разсъждения в рамките на система за подпомагане на вземането на решения за военните.

След това, през януари, Anthropic подаде предложение на стойност 100 милиона долара до Пентагона за разработване на технология за гласово управлявани автономни дронове, съобщи Bloomberg News. Предложението на компанията: да се използва Claude за превръщане на намеренията на командира в цифрови инструкции за координиране на флота от дронове.

Офертата беше отхвърлена, но конкурсът изискваше много повече от просто обобщаване на разузнавателни доклади, както бихте очаквали от чатбот. Договорът беше за разработване на „осведоменост и споделяне на информация, свързана с целите“ и „стартиране до унищожаване“ за потенциално смъртоносни рояци от дронове.

Халюцинации на цената на човешки животи

Забележително е, че всичко това се случва в регулаторен вакуум и с технология, за която е известно, че прави грешки. Халюцинациите на големите езикови модели са резултат от тяхното обучение, когато те биват награждавани за намиране на отговор, вместо да признават несигурност. Някои учени казват, че постоянното предизвикателство на измислиците на изкуствения интелект може никога да не бъде решено.

Това не е първият случай, в който ненадеждни системи за изкуствен интелект се използват във военни действия. Lavender беше база данни, управлявана от изкуствен интелект, която се използваше за идентифициране на военни цели, свързани с „Хамас“ в Газа.

Тя не беше голям езиков модел, но анализираше огромни количества данни от наблюдение, като социални контакти и история на местоположението, за да даде на всеки индивид оценка от 1 до 100. Когато оценката на даден човек преминаваше определен праг, Lavender го маркираше като военна цел.

Проблемът беше, че Lavender грешеше в 10% от случаите, според изследователски доклад, публикуван от израелско-палестинското издание +972. „Около 3600 души бяха погрешно маркирани като цели“, разказва ми Мариаросария Тадео, преподавател по цифрова етика и отбранителни технологии в Оксфордския интернет институт.

„В тези системи има невероятни уязвимости и изключителна ненадеждност... за нещо толкова динамично, чувствително и човешко като войната“, казва Елке Шварц, професор по политическа теория в Queen Mary University London и автор на „Death Machines: The Ethics of Violent Technologies“ (Смъртоносни машини: Етиката на насилствените технологии).

Непрозрачност на алгоритмите

Шварц посочва, че изкуственият интелект често се използва във войната, за да се ускорят нещата, което е рецепта за нежелани резултати. По-бързите решения се вземат в по-голям мащаб и с по-малко човешки контрол. През последните петнадесет години употребата на изкуствен интелект за военни цели е станала още по-непрозрачна, казва тя.

И тайната е заложена в начина, по който работят лабораториите за изкуствен интелект, дори преди военните им приложения. Тези компании отказват да разкрият с какви данни се обучават техните модели или как техните системи достигат до заключения.

Разбира се, военните операции често се пазят в тайна, за да се защитят бойците и да се отклони вниманието на врага. Но отбраната е строго регулирана от международното хуманитарно право и стандартите за тестване на оръжия, които на теория трябва да се отнасят и до използването на изкуствен интелект. Но такива стандарти липсват или са крайно недостатъчни.

Тадео отбелязва, че член 36 от Женевската конвенция изисква новите оръжейни системи да бъдат тествани преди внедряването им, но една AI система, която се учи от своята среда, се превръща в нова с всяка актуализация. Това прави прилагането на правилото почти невъзможно.

В един идеален свят правителства като това на САЩ биха разкрили как тези системи се използват на бойното поле, а има и прецедент. САЩ започнаха да използват въоръжени дронове след 11 септември и разшириха употребата им по време на администрацията на Барак Обама, без да признават съществуването на такава програма.

Натиск за прозрачна оценка

Отне почти 15 години изтичане на документи, постоянен натиск от страна на медиите и съдебни дела от Американския съюз за граждански свободи, преди Белият дом на Обама най-накрая да публикува през 2016 г. броя на жертвите от ударите с дронове. Те бяха широко разглеждани като подценени, но позволиха на обществеността, Конгреса и медиите да потърсят отговорност от правителството за първи път.

Контролът върху изкуствения интелект ще бъде още по-труден, като ще се наложи още по-голям обществен и законодателен натиск, за да се принуди упоритата администрация на Тръмп да създаде подобна рамка за отчитане.

Целта не би била да се разкрие точно как е бил използван Claude в операции като „Епична ярост“, а да се оповестят общите рамки, според Шварц. И, особено, да се разкрива, когато нещо се обърка.

В настоящия публичен дебат за конфликта между Anthropic и Пентагона – за това какво е законно и етично за изкуствения интелект, когато става въпрос за масово наблюдение на американците или създаване на напълно автономни оръжия – липсва по-важният въпрос за липсата на прозрачност относно това как технологията вече се използва във войната.

При новите и непроверени системи, които са склонни да правят грешки, това е крайно необходимо. „Като общество не сме решили дали сме съгласни машина да решава дали даден човек трябва да бъде убит или не“, казва Тадео.

Настояването за такава прозрачност е от решаващо значение, преди изкуственият интелект във войната да стане толкова рутинно явление, че никой вече да не се замисля да задава въпроси. В противен случай може да се окажем в ситуация, в която очакваме катастрофална грешка и налагаме прозрачност едва след като щетите вече са нанесени.

Парми Олсън е колумнист на Bloomberg, който се занимава с технологии. Бивш репортер на Wall Street Journal и Forbes, тя е автор на книгата „Превъзходство: AI, ChatGPT и надпреварата, която ще промени света.“