fallback

Не се страхувайте от AI по време на война, страхувайте се от автономните оръжия

Не алгоритмичният интелект в нашите оръжия и ядрени бомби, а автоматизмът представлява екзистенциален риск

16:06 | 17 март 2024
Автор: Андреас Клут

Няма съмнение, че изкуственият интелект ще трансформира войната, както и почти всичко останало. Но дали промяната ще бъде апокалиптична или еволюционна? В името на човечеството, да се надяваме, че е второто.

Технологичните иновации винаги са променяли воденето на война. Това е така от пристигането на колесниците, стремената, барута, ядрените оръжия и в наши дни безпилотните дронове, както украинци и руснаци демонстрират всеки ден.

Любимият ми пример (защото е толкова прост) е битката при Кьониграец през 19 век, в която прусаците победиха австрийците, като по този начин гарантираха, че Германия ще бъде обединена от Берлин, а не от Виена. Прусаците спечелиха до голяма степен, защото имаха пушки със затворен механизъм, които можеха бързо да презареждат, докато лежаха на земята, докато австрийците имаха пушки, които се презареждаха през дулото - по-бавно и трябва да сте изправен.

Ако изкуственият интелект беше подобен на този вид технология, или САЩ, или Китай, търсещи лидерство в тази област, биха могли да се надяват да спечелят военно превъзходство за мимолетен момент. Като военна технология обаче изкуственият интелект изглежда по-малко като пушки със затвор, а повече като телеграф, интернет или дори електричество. Тоест, това е по-малко оръжие, отколкото инфраструктура, която постепенно ще трансформира всичко, включително битките.

Вече го прави. Американските сателити и разузнавателни дронове сега улавят толкова много информация, че никоя човешка армия не може да я анализира цялата - достатъчно бързо, за да даде на украинците, да речем, полезни съвети за движенията на руските войски в подходящо време. Ето как AI получава тази работа. По този начин войниците са като лекари, които използват изкуствен интелект, за да ги преведе през множеството рентгенови данни.

Следващата стъпка е да поставите AI във всички видове ботове, които ще функционират, например, като автоматизирани помощници за пилоти на изтребители. Човек все още ще управлява реактивния самолет, но ще бъде заобиколен от рояк дронове, използващи сензори и изкуствен интелект, за да забележи и — с разрешение на пилота — да унищожи вражеските противовъздушни отбрани или сухопътни войски. Ботовете дори няма да се интересуват дали умират в процеса, ако това е тяхната съдба. По този начин AI може да спаси животи, както и разходи, и да освободи хората да се концентрират върху по-широкия контекст на мисията.

Решаващата подробност е, че тези ботове все още трябва да търсят разрешение от хора, преди да убият. Не мисля, че някога трябва да се доверяваме на алгоритъм, който има адекватна контекстуална осведоменост, за да прецени, да речем, дали хората в цивилни дрехи вероятно са цивилни или бойци - дори хората са известни като лоши в разграничаването. Нито трябва да позволим на AI да прецени дали човешките жертви, необходими за тактическия успех на мисията, са пропорционални на стратегическата цел.

Следователно екзистенциалният въпрос не е за AI като такъв. Пол Шаре от Центъра за нова американска сигурност, автор по темата, твърди, че вместо това става въпрос най-вече за степента на автономност, която ние, хората, предоставяме на нашите машини. Ще помогне ли алгоритъмът на войниците, офицерите и командирите или ще ги замени?

Това също не е съвсем нов проблем. Много преди изкуствения интелект, по време на Студената война, Москва изгради системи „мъртва ръка“, включително такава, наречена "Периметър". Това е напълно автоматизирана процедура за нанасяне на ядрени удари, след като човешкото ръководство на Кремъл загине при атака. Целта очевидно е да се убеди врагът, че дори един успешен първи удар би довел до взаимно сигурно унищожение. Но човек се чуди какво би се случило, ако "Периметър", който руснаците надграждат, се повреди и стреля по грешка.

Така че проблемът е доколко автономно машините вземат решение. В случая с ядрените оръжия залогът е очевидно екзистенциален. Но те все още са шеметно високи с всички други „смъртоносни автономни оръжейни системи“ (lethal autonomous weapons systems, LAWS), както официално се наричат ​​роботите убийци.

Може да се окаже, че алгоритъмът взема добри решения и минимизира смъртта; ето защо някои системи за противовъздушна отбрана вече използват AI - той е по-бърз и по-добър от хората. Но кодът може също да се провали или, по-дяволски, да бъде програмиран да увеличи страданието. Бихте ли искали някога руският президент Владимир Путин или "Хамас" да разположат роботи убийци?

САЩ, като най-напредналите в технологично отношение, в някои отношения водят с добър пример, а в някои отношения не. В своя преглед на ядрената позиция през 2022 г. САЩ казаха, че винаги ще „поддържат човек в течение“, когато се взема решения за изстрелване. Нито Русия, нито Китай са направили подобна декларация. Миналата година САЩ издадоха и „Политическа декларация за отговорно използване на изкуствения интелект и автономност във военните цели“. Подкрепен от 52 държави и нарастващ, той призовава за всякакви „предпазни мерки“ по отношение на LAWS.

Не и за тяхната забрана обаче. И това е мястото, където САЩ, както често в международното право, биха могли да играят по-конструктивна роля. Конвенцията на ООН за някои конвенционални оръжия, която се стреми да ограничи пагубните техники за убиване като противопехотни мини, се опитва да забрани напълно автономните роботи убийци. Но САЩ са сред тези, които се противопоставят на забраната. Вместо това трябва да подкрепят такава забрана и да накарат Китай, а след това и други, да направят същото.

Дори светът да каже „не“ на LAWS, разбира се, изкуственият интелект пак ще създаде нови рискове. Това ще ускори военните решения толкова много, че хората може да нямат време да оценят ситуацията и при екстремен стрес или да направят фатални грешки, или да се предадат на алгоритъма. Това се нарича пристрастие към автоматизацията, психологията на работа, когато например хората оставят GPS на колата си да ги насочи към езеро или пропаст.

Но рискът се увеличи заедно с военните иновации, откакто Хомо сапиенс завърза каменни върхове на копия. И досега в повечето случаи сме съумявали да управляваме новите опасности. При условие, че ние, хората, а не нашите ботове, останем тези, които взимат последните и най-екзистенциални решения, все още има надежда, че ще се развиваме заедно с AI, вместо да загинем с него.

Андреас Клут е колумнист в Bloomberg Opinion, отразяващ американската дипломация, национална сигурност и геополитика. Той е бивш главен редактор на Handelsblatt Global и кореспондент на Economist.

fallback
fallback