Ерата на Google с мотото „Не бъди зъл“ официално приключи.
През 2018 г. компанията замени този лозунг с по-мекото „Прави правилното нещо“, но сега ръководството на Alphabet Inc. направи още една стъпка назад.
Тази седмица компанията премахна ангажимента си да не използва изкуствения си интелект за военни цели, включително оръжия и наблюдение – обещание, което бе в сила от 2018 г.
В актуализираните принципи за „Отговорен AI“ този ключов ангажимент липсва, а главният директор по AI на Google, Демис Хасабис, публикува блог пост, в който оправда промяната като неизбежен прогрес, а не компромис.
„[AI] се разпространява толкова бързо, колкото мобилните телефони,“ написа Хасабис. „Технологията се разви значително.“
Но идеята, че етичните принципи трябва да се „развиват“ заедно с пазара, е погрешна.
Да, живеем в сложна геополитическа обстановка, но изоставянето на моралния кодекс във военното дело може да доведе до неконтролируеми последици.
Ако AI бъде интегриран на бойното поле, автоматизирани системи ще могат да отговарят една на друга със скоростта на машините, без време за дипломатически решения. Войната може да стане по-смъртоносна, тъй като ескалацията ще се случва толкова бързо, че хората няма да могат да се намесят навреме.
Освен това илюзията за „чиста“ автоматизирана война може да тласне повече военни лидери към действия, въпреки че AI системите допускат грешки и могат да доведат до цивилни жертви.
Автоматизираното вземане на решения – реалният проблем
Това, което прави AI различен от предишните военни технологии, не е просто повишената ефективност на армиите.
AI системите могат фундаментално да променят това кой (или какво) взема решенията за отнемане на човешки живот.
Особено тревожен е обратът на Демис Хасабис.
През 2018 г., когато Google създаде своите AI принципи, той беше сред 2 400 специалисти, подписали декларация срещу автономните оръжия.
По-малко от десетилетие по-късно, това обещание няма никакво значение.
Индустрията и натискът за военни договори
Според Уилям Фицджералд, бивш служител в отдела по политики на Google и съосновател на Worker Agency, компанията от години е подложена на интензивен натиск да започне работа с военните.
Той си спомня посещението на Патрик Шанахан, тогавашен заместник-министър на отбраната на САЩ, в централата на Google Cloud в Сънивейл, Калифорния, през 2017 г., когато се подготвяха инфраструктурни проекти за работа по военни технологии.
Фицджералд помогна да се спре този процес, организирайки вътрешен протест срещу Project Maven – договор на Google с Министерството на отбраната на САЩ за разработване на AI, който анализира дронови кадри.
4 000 служители подписаха петиция с искането „Google не трябва да се занимава с война“, а около дузина подадоха оставка в знак на протест.
Компанията в крайна сметка не поднови договора.
Но Фицджералд вижда това като изключение в тенденцията на Силициевата долина.
През последните години, OpenAI започна сътрудничество с военния изпълнител Anduril Industries Inc. и предлага AI решения на Пентагона, въпреки че само година по-рано беше забранил използването на своите модели за разработка на оръжия.
Компанията Anthropic, която се представя като „етична AI лаборатория“, също навлезе във военния сектор – през ноември 2024 г. компанията сключи партньорство с Palantir Technologies Inc. за продажба на AI системата Claude на отбранителни изпълнители.
Необходимостта от правни регулации
Google от своя страна губи контрол над собствените си етични рамки.
През 2019 г. компанията разпусна своя етичен борд, а година по-късно уволни двама от най-изявените си директори по AI етика.
Силициевата долина като цяло не би трябвало да бъде оставена да се саморегулира.
Все пак обратът на Google може да доведе до по-голям натиск върху правителствата следващата седмица, за да създадат задължителни законови регулации за военния AI, преди състезателната динамика и политическият натиск да направят това невъзможно.
Какви трябва да бъдат правилата?
Едно разумно предложение идва от Future of Life Institute, мозъчен тръст, който някога е бил финансиран от Илон Мъск и сега е ръководен от физика от MIT Макс Тегмарк.
Той предлага военният AI да се регулира подобно на ядрената индустрия, като националните власти бъдат задължени да представят недвусмислени доказателства за безопасността на тези технологии.
Освен това, правителствата, които се събират в Париж, трябва да създадат международен регулаторен орган, подобен на Международната агенция за атомна енергия (МААЕ), с възможност да налага санкции на компании и държави, които нарушават стандартите за безопасност.
Обратът на Google е сигнал за тревога
Решението на Google показва колко лесно дори най-силните корпоративни ценности могат да рухнат под натиска на свръхгорещия пазар и политическите реалности.
Ерата на „Не бъди зъл“ и саморегулацията в Силициевата долина приключи.
Но все още има време да се въведат обвързващи правила, които да предотвратят най-големите рискове на AI.
А автоматизираната война е несъмнено един от тях.