fallback

Израел тихомълком внедрява AI системи в смъртоносни военни операции

Изкуствен интелект обработва огромни количества данни, избира цели за въздушни удари, планира полети, изчислява натоварването с боеприпаси, приоритизира хиляди цели между самолети и дронове и предлага график

16:45 | 16 юли 2023
Автор: Мариса Нюман

Израелските отбранителни сили започнаха да използват изкуствен интелект за избор на цели за въздушни удари и за организиране на военната логистика в момент, когато напрежението в окупираните територии и в отношенията със съперника Иран ескалира.

Въпреки че военните не коментират конкретни операции, официални лица казват, че сега използватсистема за препоръки с изкуствен интелект, която може да обработва огромни количества данни, за да избира цели за въздушни удари. След това последващите полети могат да бъдат бързо планирани с помощта на друг модел на изкуствен интелект, наречен Fire Factory, който използва данни за одобрените от военните цели, за да изчисли натоварването на боеприпасите, да степенува по важност и да разпредели хиляди цели между самолети и дронове и да предложи график. 

Според служител на Силите за отбрана (IDF), макар че и двете системи се контролират от човешки оператори, които проверяват и одобряват отделните цели и плановете за въздушни нападения, технологията все още не подлежи на никаква регулация на международно или държавно ниво. Поддръжниците твърдят, че усъвършенстваните алгоритми могат да надминат човешките възможности и да помогнат на военните да сведат до минимум жертвите, докато критиците предупреждават за потенциално смъртоносните последици от разчитането на все по-автономни системи.

"Ако има грешка в изчисленията на изкуствения интелект и ако те не могат да бъдат обяснени, тогава кого ще обвиним за грешката?" - казва Тал Мимран, преподавател по международно право в Еврейския университет в Йерусалим и бивш юридически съветник на армията. "Можете да унищожите цяло семейство в резултат на някаква си грешка."

Подробностите за оперативното използване на изкуствения интелект от армията остават до голяма степен засекретени, но изявленията на военни служители сочат, че IDF е натрупала опит на бойното поле със спорните системи чрез периодичните обстрели в ивицата Газа, където Израел често нанася въздушни удари в отговор на ракетни атаки. През 2021 г. IDF определи 11-дневния конфликт в Газа като първата в света "война с изкуствен интелект", като се позова на използването на изкуствен интелект за идентифициране на площадки за изстрелване на ракети и разполагане на рояци дронове. Израел също така извършва нападения в Сирия и Ливан, като се насочва към това, което твърди, че са доставки на оръжия за подкрепяни от Иран милиции като Хизбула.

През последните месеци Израел отправя почти ежедневни предупреждения към Иран във връзка с обогатяването на уран, като се зарича, че няма да позволи на страната да се сдобие с ядрено оръжие при никакви обстоятелства. Ако двете страни влязат във военна конфронтация, IDF очаква, че иранските пълномощници в Газа, Сирия и Ливан ще отвърнат на удара, създавайки предпоставки за първия сериозен многофронтов конфликт за Израел, откакто преди 50 години изненадваща атака от страна на Египет и Сирия предизвика войната Йом Кипур.

Според официални представители на IDF инструментите, базирани на изкуствен интелект, като Fire Factory, са пригодени за такъв сценарий. "Това, което преди отнемаше часове, сега отнема минути, с още няколко минути за човешки преглед", каза полковник Ури, който оглавява звеното за цифрова трансформация на армията и който говори в щаба на IDF в Тел Авив при условие, че от съображения за сигурност може да се използва само първото му име. "Със същия брой хора правим много повече." 

Системата, подчертават тези служители, е предназначена за тотална война.

Разширяване на разузнаването?

IDF отдавна използва изкуствен интелект, но през последните години разширява тези системи в различни подразделения, тъй като се стреми да се позиционира като световен лидер в областта на автономните оръжия. Някои от тези системи са създадени от израелски отбранителни контрактори; други, като камерите за граничен контрол StarTrack, които са обучени на базата на хиляди часове видеозаписи да идентифицират хора и обекти, са разработени от армията. В своята съвкупност те представляват огромна цифрова архитектура, посветена на интерпретирането на огромни количества кадри от дронове и видеонаблюдение, сателитни изображения, електронни сигнали, онлайн комуникации и други данни за военна употреба.

Справянето с този поток от информация е целта на Центъра за наука за данните и изкуствен интелект, управляван от армейското подразделение 8200. Базирано в рамките на разузнавателния отдел, това подразделение е мястото, където много от технологичните мултимилионери в страната, включително Нир Зук от Palo Alto Networks Inc. и основателят на Check Point Software Technologies Ltd. Гил Швед, отбиват задължителната си военна служба, преди да създадат успешни стартъпи. Според говорител Центърът е отговорен за разработването на системата, която "промени цялата концепция за целите в IDF".

Секретният характер на начина, по който се разработват подобни инструменти, предизвиква сериозни опасения, включително че разликата между полуавтономните системи и напълно автоматизираните машини за убиване може да се намали за една нощ. При такъв сценарий машините ще бъдат упълномощени да откриват и поразяват цели, а хората ще бъдат изцяло отстранени от позициите за вземане на решения. 

"Става дума само за промяна в софтуера, която може да доведе до това роботите да не са полуавтономни, а да са напълно автономни", казва Катрин Конъли, изследовател на автоматичните решения в "Stop Killer Robots"("Спрете роботите убийци"), коалиция от неправителствени организации, която включва Human Rights Watch и Amnesty International. Израел твърди, че не планира да премахне човешкия надзор през следващите години.

Друго притеснение е, че бързото внедряване на ИИ изпреварва изследванията на вътрешните му механизми. Много алгоритми се разработват от частни компании и военни, които не разкриват поверителна информация, а критиците подчертават заложената липса на прозрачност в начина, по който алгоритмите достигат до своите заключения. IDF признава този проблем, но казва, че резултатите се преглеждат внимателно от войниците и че военните системи за изкуствен интелект оставят след себе си технически следи, които дават възможност на човешките оператори да пресъздадат техните стъпки.

"Понякога, когато се въвеждат по-сложни компоненти на ИИ, невронни мрежи и други подобни, разбирането на това, което "е минало през главата му", образно казано, е доста сложно. И тогава понякога съм склонен да кажа, че съм доволен от проследимостта, а не от обяснимостта. Тоест искам да разбера какво е критично важно за мен да разбера за процеса и да го наблюдавам, дори и да не разбирам какво прави всеки "неврон" - казва Ури. 

IDF отказа да говори за технологията за разпознаване на лица, която е силно критикувана от групите за защита на човешките права, въпреки че заяви, че се въздържа от интегриране на изкуствен интелект в софтуера за набиране на персонал поради опасения, че това може да доведе до дискриминация на жените и потенциалните кадети от по-ниски социално-икономически слоеве.

Според някои експерти основното предимство на интегрирането на ИИ в системите на бойното поле е потенциалът за намаляване на жертвите сред цивилното население. "Смятам, че има полза от ефикасността и ефективността на правилното използване на тези технологии. А в рамките на добре функциониращите технологични параметри може да има много, много висока точност", заяви Симона Р. Соаре, научен сътрудник в базирания в Лондон Международен институт за стратегически изследвания. "Това може да ви помогне за много неща, които трябва да направите в движение, в "мъглата на битката". А това е много трудно да се направи в най-добрите дни."

"Има и много неща, които също могат да се объркат", добави тя.

Етични проблеми

Макар че израелските лидери изтъкнаха намерението си да превърнат страната в "суперсила на изкуствения интелект", те бяха неясни по отношение на подробностите. Министерството на отбраната отказа да коментира колко е инвестирало в ИИ, а армията не пожела да обсъжда конкретни договори в областта на отбраната, въпреки че потвърди, че Fire Factory е разработена от израелския отбранителен предприемач Rafael. Допълнително затъмнява картината фактът, че за разлика от времето на надпреварата в ядреното въоръжаване, когато изтичането на подробности за възможностите на оръжията беше ключов аспект на възпирането, автономните и подпомаганите от ИИ системи се разработват от правителства, армии и частни отбранителни компании в тайна.

"Можем да предположим, че американците и дори китайците, а може би и няколко други държави, също разполагат с усъвършенствани системи в тези области", казва Лиран Антеби, старши изследовател в базирания в Израел Институт за изследвания на националната сигурност. Но за разлика от Израел, "доколкото ми е известно, те никога не са демонстрирали оперативна употреба и успех".

Засега няма никакви ограничения. Въпреки десетилетието на преговори, спонсорирани от ООН, няма международна рамка, която да определя кой носи отговорност за цивилни жертви, инциденти или непреднамерена ескалация, когато компютърът направи грешна преценка. 

"Съществува и въпросът за тестването и данните, по които се обучават тези системи", каза Конъли от коалицията "Да спрем роботите убийци". "Колко прецизна и точна може да бъде една система, ако тя вече не е била обучена и тествана върху хора?"

Подобни опасения са причината Мимран, преподавател по право в Еврейския университет, да смята, че IDF трябва да използва AI изключително за отбранителни цели. По време на службата си в армията Мимран ръчно е проверявал целите, за да се увери, че атаките са в съответствие с международното право. Това го е научило, че независимо от технологията, "има момент, в който трябва да се вземе решение, основано на ценности".

"И за това", казва той, "не можем да разчитаме на изкуствен интелект."

fallback
fallback