Пари, мимикрия и умствен контрол: Big Tech поставя етични спирачки пред AI

Развития в областта на изкуствения интелект може да бъдат забавени, докато компаниите успеят да се справят с етичните рискове

17:33 | 12 септември 2021
Автор: Даниел Николов
Снимка: Bloomberg
Снимка: Bloomberg

През септември миналата година облачното звено на Google се опита да използва изкуствен интелект, за да помогне на финансова фирма да реши на кого да отпуска пари, разказва "Ройтерс".

Фирмата отхвърля идеята на клиента след седмици на вътрешни дискусии, определяйки проекта като етично проблематичен, тъй като AI технологията може да възпроизвежда и ползва предразсъдъци на расов и полов принцип.

От началото на миналата година Google също блокира новите функции за изкуствен интелект, анализиращи емоциите, страхувайки се от грешки в анализа заради културни различия, докато Microsoft ограничава софтуера, имитиращ гласове, а IBM отхвърли заявката на свой клиент за усъвършенствана система за разпознаване на лица.

Всички тези технологии бяха ограничени от групи от ръководители или други лидери, според интервюта с ръководители групи за AI етика в трите технологични гиганта.

Тези процеси отразяват зараждащия се в цялата индустрия стремеж за баланс между доходоносните системи за изкуствен интелект с по-голямо внимание към социалната отговорност.

„Има възможности и вреди, и нашата работа е да увеличим максимално възможностите и да намалим вредите до минимум“, каза Трейси Пицо Фрей, която е член на два комитета по етика в Google Cloud като неин управителен директор за отговорен AI.

Преценките могат да бъдат трудни.

Microsoft например трябваше да балансира ползата от използването на своята технология за имитация на глас за възстановяване на речта на хората с увреждания срещу рискове, като например създаване на политически дълбоки фалшификации, каза Наташа Крамптън, главен директор за отговорен AI за компанията.

Правозащитниците казват, че решенията с потенциално широки последици за обществото не трябва да се вземат вътрешно и самостоятелно от компаниите. Те твърдят, че комитетите по етика не могат да бъдат наистина независими и тяхната публична прозрачност е ограничена от натиска на конкуренцията.

Джаша Галаски от Съюза за граждански свободи за Европа разглежда външния надзор като път напред, а американските и европейските власти наистина изготвят правила за нововъзникващата зона.

Ако комитетите по етика на AI на компаниите „наистина станат прозрачни и независими - и всичко това е много пожелателно - тогава това би могло да бъде дори по-добро от всяко друго решение, но не мисля, че е реалистично“, каза Галаски.

Компаниите заявиха, че биха приветствали ясен регламент относно използването на AI и че това е от съществено значение както за доверието на клиентите, така и за обществеността, подобно на правилата за безопасност на автомобилите. Те казаха, че е и в техния финансов интерес да действат отговорно.

Компаниите обаче искат всички правила да бъдат достатъчно гъвкави, за да бъдат в крак с иновациите и новите дилеми, които се създават.

Сред сложните съображения, които предстоят, IBM каза пред "Ройтерс", че нейният Съвет по AI етика е започнал да обсъжда как да се контролира една нововъзникваща граница: импланти и носими устройства, които свързват компютрите с мозъка на човек.

Подобни невротехнологии биха могли да помогнат на хората с увреждания да контролират движенията си, но предизвикват опасения като възможността хакери да манипулират мислите им, каза главният директор на IBM по поверителността Кристина Монтгомъри. 

Дискриминация и културни различия

Технологичните компании признават, че когато само преди пет години са стартирали услугите си за изкуствен интелект, като чатботове и маркиране на снимки, е имало малко етични гаранции - всякакви проблеми със злоупотреба или пристрастни резултати са били разрешавани с последващи актуализации.

Но тъй като политическият и обществен контрол върху недостатъците на AI нараства, Microsoft през 2017 г. и Google и IBM през 2018 г. създадоха комитети по етика, които да наблюдават новите услуги от самото начало.

Google заяви, че се е сблъскала с проблема, когато неин клиент - компания за финансови услуги - е заявила, че AI може да оцени кредитоспособността на хората по-добре от другите методи и е поискала подобна услуга.

Проектът изглежда много подходящ за Google Cloud, чийто опит в разработването на инструменти за изкуствен интелект, които помагат в области като откриване на необичайни транзакции, привлича клиенти като Deutsche Bank, HSBC и BNY Mellon.

Google е прогнозирала, че услуга за кредитен рейтинг, базиран на изкуствен интелект, може да се превърне в пазар на стойност милиарди долари годишно.

Нейната комисия по етика от около 20 мениджъри, социални учени и инженери, която преглежда потенциалните сделки, единодушно е гласувала против проекта на среща през октомври, каза Пицо Фрей.

Системата за изкуствен интелект би трябвало да се поучи от минали данни и модели, заключава комитетът, и по този начин рискува да повтори дискриминационни практики от цял ​​свят срещу цветнокожи хора и други маргинализирани групи.

Нещо повече, комисията, вътрешно известна като "Lemonaid", е възприела политика за отказване на всички сделки за финансови услуги, свързани с кредитиране, докато подобни опасения не бъдат разрешени.

Lemonaid вече е била отхвърлила три подобни предложения през предходната година, включително от компания за кредитни карти и бизнес кредитор, а компаниите са нетърпеливи да намерят по-широко решение по въпроса.

Google също заяви, че вторият й комитет по етика в облака, известен като Iced Tea, тази година е започнал преглед на услуга, пусната през 2015 г., за категоризиране на снимки на хора по четири израза на емоции: радост, скръб, гняв и изненада.

Този ход е последван от решение от миналата година на етичния панел на Google - Advanced Technology Review Council(ATRC) - което спря нови услуги, свързани с четенето на емоции.

ATRC - над дузина топ мениджъри и инженери - установи, че предполагането на емоции може да бъде погрешно, тъй като сигналите на лицето са свързани по различен начин с чувствата в различните култури, наред с други причини, каза Джен Генай, основател и ръководител на екипа на Google за отговорни иновации.

Iced Tea блокира 13 планирани емоции за облачната услуга и скоро може да я отмени напълно в полза на нова система, която да описва движения като "мръщене" или "усмивка", без да се опитва да ги интерпретира.

Гласове и лица

Междувременно Microsoft разработи софтуер, който може да възпроизведе нечий глас от кратка извадка, но след това панелът на компанията Sensitive Uses прекара повече от две години в обсъждане на етиката около използването му и се консултира с президента на компанията Брад Смит, споделя Крамптън пред "Ройтерс".

Тя каза, че панелът - специалисти в области като правата на човека, Big Data и инженерството - в крайна сметка дава зелена светлина проектът Custom Neural Voice да бъде пуснат през февруари тази година. Но той поставя ограничения за използването му, включително проверка на съгласието на субектите и одобрение на екип по корпоративна политика на компанията.

Управителният съвет на IBM, състоящ се от около 20 ръководители на отдели, се бори със собствената си дилема, когато в началото на пандемията от COVID-19 разглежда молба на клиент за персонализиране на технологията за разпознаване на лица, за да открива повишаване на температурата на хора и да следи за употребата на маски.

Монтгомъри каза, че бордът, на който тя е съпредседател, е отказал поръчката, като е заключил, че ръчните проверки биха били достатъчни с по-малко намеса в поверителността, тъй като снимките няма да бъдат запазени за никаква база данни за AI.

Шест месеца по-късно IBM обяви, че прекратява услугата си за разпознаване на лица.

Нeвъзможни амбиции

В опит да защитят неприкосновеността на личния живот и другите свободи, законодателите в Европейския съюз и САЩ планират широкообхватни контролни мерки върху системите за изкуствен интелект.

Законът на ЕС за изкуствения интелект, който трябва да бъде приет през следващата година, ще забрани разпознаването на лица в реално време в публичните пространства и ще изисква от технологичните компании да проверяват високорискови приложения, като тези, използвани при наемане на работа, кредитен рейтинг и правоприлагане.

Американският конгресмен Бил Фостър, който проведе изслушвания за това как алгоритмите пренасят дискриминацията във финансовите услуги и жилищното настаняване, заяви, че новите закони за управление на AI ще осигурят конкуренцията при доставчиците.

„Когато помолите компания да намали печалбата си, за да се постигнат обществени цели, те казват: „Какво ще кажете на нашите акционери и нашите конкуренти?“ Ето защо имате нужда от сложна регулация", каза демократът от Илинойс.

„Възможно е да има области, които са толкова чувствителни, че ще видим как технологичните фирми умишлено не развиват продукти в тях, докато не съществуват ясни правила.“

Всъщност някои постижения в областта на изкуствения интелект може просто да бъдат задържани, докато компаниите успеят да се справят с етичните рискове, без да отделят огромни инженерни ресурси.

След като Google Cloud отхвърли искането за персонализиран финансов AI през октомври миналата година, комитетът Lemonaid е казал на екипа по продажбите, че звеното има за цел да започне разработването на приложения, свързани с кредити, някой ден.

Но първо, изследванията за борба с несправедливите пристрастия трябва да настигнат амбициите на Google Cloud за увеличаване на финансовото включване чрез „силно чувствителната“ технология, е мнението на комитета.

„Дотогава не сме в състояние да внедряваме решения.“