САЩ са използвали AI, за да идентифицират цели за въздушни удари в Близкия изток

Алгоритми за машинно обучение, които могат сами да се научат да идентифицират обекти, помогнаха да се стеснят целите на повече от 85 американски въздушни удара на 2 февруари

19:37 | 26 февруари 2024
Автор: Катрина Менсън
Снимка: Bloomberg LP
Снимка: Bloomberg LP

САЩ са използвали изкуствен интелект, за да идентифицират цели, поразени от въздушни удари в Близкия изток този месец, съобщи служител на отбраната, разкривайки все по-широкото използване на технологията за военни цели.

Алгоритми за машинно обучение, които могат сами да се научат да идентифицират обекти, помогнаха да се стеснят целите на повече от 85 американски въздушни удара на 2 февруари, според Шуйлър Мур, главен технологичен директор на Централното командване на САЩ, което ръководи военните операции на САЩ в Близкия изток. Пентагонът съобщи, че тези удари са били нанесени от американски бомбардировачи и изтребители срещу седем обекта в Ирак и Сирия.

Използваме компютърно зрение, за да идентифицираме местата, където може да има заплахи“, коментира Мур в интервю за Bloomberg News. „През последните 60-90 дни със сигурност имахме повече възможности за насочване“, каза тя и добави, че в момента САЩ търсят „ужасно много“ ракетни установки от враждебни сили в региона.

Военните и преди са признавали, че използват алгоритми за компютърно зрение за целите на разузнаването. Но коментарите на Мур са най-силното известно потвърждение, че американските военни използват технологията за идентифициране на вражески цели, които впоследствие са били поразени от оръжия.

Ударите на САЩ, които според Пентагона са унищожили или повредили ракети, снаряди, складове за дронове и оперативни центрове на милициите, наред с други цели, са част от отговора на администрацията на Байдън на убийството на трима американски военнослужещи при нападение срещу база в Йордания на 28 януари. САЩ приписват нападението на подкрепяни от Иран милиции.

Мур заяви, че системите за изкуствен интелект са помогнали и за идентифицирането на ракетни установки в Йемен и надводни кораби в Червено море, няколко от които Централното командване или Centcom заяви, че е унищожило при множество оръжейни удари през февруари. Подкрепяните от Иран хутски милиции в Йемен неведнъж са атакували с ракети търговското корабоплаване в Червено море.

Проект Maven

Алгоритмите за насочване са разработени в рамките на проекта Maven - инициатива на Пентагона, стартирала през 2017 г., за да се ускори внедряването на изкуствен интелект и машинно обучение в Министерството на отбраната и да се подпомогне отбранителното разузнаване, като по това време в прототипите се набляга на борбата на САЩ срещу бойците на „Ислямска държава“.

Мур, който е базиран в щаба на Centcom в Тампа, Флорида, заяви, че американските сили в Близкия изток са експериментирали с алгоритми за компютърно зрение, които могат да локализират и идентифицират цели от изображения, заснети от сателит и други източници на данни, като са ги изпробвали в учения през последната година.

След това те започнаха да ги използват в реални операции след нападението на „Хамас“ срещу Израел на 7 октомври и последвалите ответни военни действия в Газа, които разпалиха регионалното напрежение и атаките на подкрепяните от Иран бойци. САЩ и Европейският съюз обявиха „Хамас“ за терористична организация.

На 7 октомври всичко се промени“, казва Мур. „Веднага превключихме на висока скорост и много по-висок оперативен темп, отколкото преди това“, каза тя, добавяйки, че американските сили са успели да направят „доста безпроблемна промяна“ в използването на Maven след година на цифрови упражнения.
Мур подчерта, че възможностите на изкуствения интелект на Maven се използват, за да помогнат за намирането на потенциални цели, но не и за тяхната проверка или разполагане на оръжия срещу тях.

Тя заяви, че ученията в края на миналата година, в които Centcom експериментира с препоръчителна система на изкуствения интелект, показват, че такива системи „често не успяват“ да предложат реда на атаката или най-доброто оръжие, което да се използва.

Хората постоянно проверяват препоръките за насочване на изкуствения интелект, каза тя. Операторите в САЩ приемат сериозно своите отговорности и риска, че AI може да допусне грешки, и „обикновено е доста очевидно, когато нещо не е наред“.

Никога няма алгоритъм, който просто работи, стига до заключение и след това преминава към следващата стъпка“, каза тя. „Всяка стъпка, която включва изкуствен интелект, се проверява от човек накрая.“