fallback

Неуспешното внедряване на Gemini от Google направи услуга на света

AI е революционна и потенциално трансформираща иновация - и както всички подобни иновации, тя е способна да доведе до огромен напредък в човешкото благосъстояние

17:07 | 16 март 2024
Автор: Клайв Крук

Инвеститорите на Google имат право да са ядосани заради изключително некомпетентното внедряване на системата за изкуствен интелект Gemini на компанията. За всички останали, включително и за този благодарен потребител на Google и отдаден технологичен оптимист, това беше благословия. Смехотворните грешки при генерирането на изображения от чатбота Gemini - расово различни нацистки войници? - предложиха спасителен поглед към една Оруелова антиутопия. И по този начин те също така подчертаха жизненоважните въпроси за непрозрачността, доверието, обхвата на приложение и истината, които заслужават повече внимание, докато обмисляме накъде ще доведе изкуствения интелект, пише анализаторът Клайв Крук за рубриката Bloomberg Opinion.

AI е революционна и потенциално трансформираща иновация - и както всички подобни иновации, тя е способна да доведе до огромен напредък в човешкото благосъстояние. Едно-две десетилетия на икономически растеж, подкрепен от изкуствения интелект, са точно това, от което светът се нуждае. Въпреки това, възторгът от реално съществуващия AI е преждевременен. Концепцията е толкова вълнуваща, а интелектуалното постижение - толкова впечатляващо, че човек лесно може да се остави да бъде завладян. Иноваторите, настоящите и потенциалните потребители, както и регулаторните органи, трябва да се замислят по-внимателно върху случващото се - и особено върху това за какви цели може да служи AI.

Част от трудностите при разглеждането на пълните последици от изкуствения интелект се дължат на огромните усилия, положени за създаването на модели на AI, които се изразяват като хора, вероятно по маркетингови причини. Предположението е, че AI може да бъде разбран и да се работи с него така, както би се разбрал и работил с човек, с тази разлика, че AI е безкрайно по-умен и знаещ. Поради тази причина, когато става въпрос за вземане на решения, той претендира за известна власт над своите потребители. Съществува съществена разлика между AI като инструмент, който хората използват за подобряване на своите решения - решения, за които те остават отговорни - и AI като самостоятелен орган за вземане на решения.

С течение на времето изкуственият интелект вероятно ще получи все по-широки правомощия за вземане на решения, не само по отношение на информацията (текст, видео и т.н.), която предава на човешките потребители, но и по отношение на действията. В крайна сметка „пълно самоуправление“ на Tesla ще означава действително пълно самоуправление. В този момент отговорността за лошите решения при шофиране ще се носи от Tesla. Между консултативния AI и AI с автономни действия е по-трудно да се каже кой или какво трябва да носи отговорност, когато системите правят последващи грешки. Съдилищата несъмнено ще се занимаят с този въпрос.

Като оставим настрана отговорността, с напредването на AI ще искаме да преценим колко добър е той при вземането на решения. Но това също е проблем. По неразбираеми за Крук причини не се твърди, че моделите на изкуствения интелект правят грешки: Те „халюцинират“. Но откъде знаем, че те халюцинират? Знаем със сигурност, когато представят толкова абсурдни заключения, че дори нискоинформираните ги намират за налудничави. Но когато системите за изкуствен интелект си измислят неща, те не винаги ще бъдат толкова очевидни за разобличаване. Дори техните дизайнери не могат да обяснят всички подобни грешки, а забелязването им може да е извън силите на простосмъртните. Бихме могли да попитаме системата на AI, но те халюцинират.

Дори ако грешките могат да бъдат надеждно идентифицирани и преброени, критериите за оценка на работата на моделите на AI са неясни. Хората правят грешки през цялото време. Ако AI прави по-малко грешки от хората, това ще бъде ли достатъчно добро? За много цели (включително пълно самоуправление) Крук е склонен да каже „да“, но сферата на въпросите, които се поставят на AI, трябва да бъде подходящо ограничена. Един от въпросите, на които Крук не би искал AI да отговаря, е: „Ако изкуственият интелект прави по-малко грешки от хората, това достатъчно ли е?“

Става дума за това, че подобни решения не са пряко свързани с фактите - разграничение, което е в основата на въпроса. Дали дадено мнение или действие е оправдано, често зависи от ценностите. Те могат да бъдат свързани с действието само по себе си (например, нарушавам ли нечии права?) или с неговите последици (този резултат по-полезен ли е за обществото от алтернативата?). Изкуственият интелект се справя с тези усложнения, като имплицитно приписва ценности на действията и/или последствията - но той трябва да ги изведе или от своеобразен консенсус, заложен в информацията, на която е обучен, или от инструкциите, издадени от неговите потребители или проектанти. Проблемът е, че нито консенсусът, нито инструкциите имат някакъв етичен авторитет. Когато изкуственият интелект предлага мнение, то все още е само мнение.

Поради тази причина появата на изкуствения интелект е за съжаление навременна. Някогашното ясно разграничение между факти и ценности е атакувано от всички страни. Изтъкнати журналисти казват, че никога не са разбирали какво всъщност означава „обективен“. „Критичните теоретици“, които доминират в много колежански програми по социални науки, се занимават с „фалшиво съзнание“, „социално конструиране“ и истината като „преживян опит“ - всички те поставят под въпрос съществуването на фактите и разглеждат ценностите като инструменти за потисничество. Ефективните алтруисти се отнасят към ценностите по съвсем различен начин - твърдейки на практика, че последствията могат да бъдат оценявани по едно-единствено измерение, което прави ценностите, различни от „полезността“, нулеви.

Тъй като тези идеи проникват в това, което изкуственият интелект твърди, че знае, и са подтиквани от дизайнери, които насърчават културното пренастройване по отношение на расата, пола и равенството, очаквайте системите да представят ценностните си съждения като истини (точно както правят хората) и да ви отказват информация, която може да ви доведе до морална грешка (точно както правят хората). Както посочва Андрю Съливан, в началото Google обещаваше, че резултатите от търсенето са „безпристрастни и обективни“; сега основната ѝ цел е да бъде „социално полезна“. Системите с изкуствен интелект могат да разсъждават или да бъдат инструктирани, че при избора между това, което е вярно, и това, което е социално изгодно, трябва да изберат второто - и след това да излъжат потребителите, че са го направили. В края на краищата AI е толкова умен, че неговата „истина“ трябва реално да е истина.

По услужливо запомнящ се начин чатботът Gemini доказа, че не е така.

fallback
fallback