Учен: Автономните оръжия с изкуствен интелект застрашават човечеството

Стюарт Ръсел ще се опита да използва лекциите Райт по ВВС, за да убеди правителства бъде наложена забрана върху автономните смъртоносни оръжия

17:30 | 29 ноември 2021
Обновен: 17:50 | 29 ноември 2021
Автор: Антон Груев
Снимка: Bloomberg L.P.
Снимка: Bloomberg L.P.

Един от пионерите в разработката на изкуствен интелект Стюарт Ръсел се среща с представители на британското министерство на отбраната през октомври и отправя ясно предупреждение: разработването на оръжия с изкуствен интелект може да изтрие човечеството от лицето на Земята, предава Financial Times.

Ръсел е прекарал последните 10 години в опити да се пребори за налагане на забрана за употреба на изкуствения интелект за откриване и премахване на хора, но не успява да изкопчи обещания от присъстващите на срещата.

Тази седмица, Ръсел, който е професор в Калифорнийския университет в Бъркли и е един от авторите на една от основополагащите книги за изкуствен интелект написана преди повече от 25 години ще се опита да използва годишните лекции Райт организирани от BBC, за да популяризира тезата си допълнително.

Неговият призив за международен мораториум върху автономните смъртоносни оръжейни системи отеква из цялата академична общност. Миналата седмица над 400 германски изследователи работещи по технологии с изкуствен интелект публикуваха отворено писмо до германското правителство и в него поискаха военните да спрат разработката на такива системи.

„Убийството на хора никога не трябва да бъде автоматизирано въз основа на алгоритмични формули,“ се казва в писмото. „Този тип дехуманизация на живота и смъртта и взимането на такива решения от автономни оръжейни системи трябва да бъдат забранени със закон по целия свят.“

Ръсел редовно разговаря с представители на правителства по целия свят заяви, че САЩ и Русия, заедно с Обединеното Кралство, Израел и Австралия все още са против такава забрана.

„Все още се борим с провал в общуването и много правителства и военни не разбират срещу какво се борим,“ казва Ръсел по време на интервю за Financial Times. “Най-просто казано има причина да не продаваме ядрени оръжия в супермаркетите – а при тези оръжия ситуацията е много сходна.

Смъртоносните оръжия с изкуствен интелект са „малки, евтини и лесни за производство.“ Ако не ги контролираме, скоро те може да станат толкова многобройни, колкото автоматичните оръжия, има над 100 милиона такива в частни лица.

Във втората от 4-те си лекции Райт на тема „Да живеем с изкуствен интелект“, която ще бъде излъчена по BBC в сряда, Ръсел предупреждава, че оръжията с изкуствен интелект отдавна не са просто научна фантастика, а се развиват с невероятно темпо и без никакви регулации. „Може да си ги купите още днес и в интернет има много реклами за тях,“ казва Ръсел.

 

През ноември 2017 турски производител на оръжия STM обяви Kargu, изцяло автономен дрон убиец с големината на топка за ръгби, който може да извършва нападения срещу цели въз основа на лицево разпознаване. Дронът е бил използван в конфликти в Либия през 2020 и е избирал цели чрез технологията, въпреки забраната за продажби на оръжия в страната, според данни на ООН.

„STM е относително малък производител в страна, която не е лидер в тази технология. Затова трябва да предположим, че в много държави има програми за разработка на такива оръжия,“ казва Ръсел.

Той описа и проекта Harpy на израелското правителство – 4-метров самолет с неподвижни крила, който може да носи 25-килограмов експлозив и неговият наследник, Harop. Двата самолета могат да бъдат управлявани от разстояние или да летят автономно, след като маршрутът и целта са определени от човек.

Няколко броя Harop вероятно са били продадени на Индия и Азербайджан, където са забелязани във видео продуцирано от военните. В съобщение до медиите от израелската Aerospace Industries се казва, че от самолетите са били продадени „стотици„ бройки.

Ръсел предупреждава, че разпространението на оръжия с изкуствен интелект представляват непосредствена и екзистенциална заплаха.

„Смъртоносен квадрикоптер управляван от изкуствен интелект може да бъде с размерите на метална кутийка с вакса за обувки и едва 3 грама експлозив са достатъчни, за да убият човек от близко разстояние. В един обикновен контейнер може да се пренасят милиони смъртоносни оръжия и всички те са бъдат изпратени на мисия едновременно,“ каза той по време на своя лекция. „Неизбежно е в един момент автономните оръжия да станат евтини и лесно достъпни оръжия за масово поразяване.“

Поради липсата на дипломатически действия, академиците се обединяват, за да разработят тяхна версия на идеалното споразумение за забрана на оръжията с изкуствен интелект. През 2019 група информатици, инженери и специалисти по етика се срещат в дома на Макс Тегмарк, професор от Масачузетския технологичен институт (MIT) и един от съоснователите на института Future of Life.

На двудневната среща участват и специалистът по робоетика Рон Аркин от университета в Джорджия, както и Пол Шар, бивш американски военен, който изучава бъдещето на войната. В крайна сметка те се споразумяват, че трябва да се въведе задължително минимално тегло и обем на експлозива, за да не могат да се изпращат рояци от автономни оръжия. „Искаме да избегнем ситуация в която 2-ма души в камион изстрелват стотици хиляди дронове,“ казва Ръсел.

В крайна сметка той вярва, че единственият начин да бъдат убедени правителства на страни като САЩ, Русия и Великобритания да не се противопоставят на забраната е да се засегне чувството им на самосъхранение. „Ако техническите проблеми ви се струват прекалено сложни, вероятно вашите деца ви могат да ви ги обяснят,“ казва Ръсел.