AI не само лъже, но може да ви накара да му повярвате

Учени доказват, че човешкият мозък е крайно податлив да си създава фалшиви спомени, а AI може да се възползва от това

10 August 2025 | 11:30
Автор: Ф.Д. Флам
Редактор: Георги Месробович
Снимка: Bloomberg L.P.
Снимка: Bloomberg L.P.

Една от по-фините и коварни заплахи, които представляват изкуственият интелект и свързаните с него технологии, е способността им да манипулират спомените.

Психологът Елизабет Лофтус е прекарала последните 50 години в демонстриране колко лесно хората могат да бъдат манипулирани да си спомнят неща, които никога не са се случвали – особено в ръцете на прокурори и полицаи, разпитващи свидетели.

Сега Лофтус, професор в Университета на Калифорния, Ървайн, се е обединила с изследователи от Масачузетския технологичен институт, за да проучи как изкуственият интелект може да манипулира това, което мислим, че помним. Тази манипулация се случва дори когато субектите знаят, че гледат текст и изображения, генерирани от изкуствен интелект. Резултатите от проучването сочат, че изкуственият интелект може да усили способността на хората да имплантират фалшиви спомени.

В известна поредица от експерименти, започнала през 70-те години на миналия век, Лофтус показа, че с подходящи внушения психолозите могат да имплантират спомени, че хората са се изгубили в търговски център като деца или че са се разболели от яйца или ягодов сладолед на пикник. Последното всъщност отблъсква хората от желанието да ядат тези храни. Въпреки доказателствата, все още не можем да се отървем от идеята, че паметта е като запис на събития – и че погрешното възприемане на собствения ни ум ни прави уязвими.

„Хората, които се придържат към този модел на паметта като магнетофон, изглежда не оценяват, че паметта е конструктивен процес“, казва Лофтус, обяснявайки, че мозъкът ни изгражда спомени от парченца, придобити в различни моменти. Интуитивно разбираме забравянето като загуба или избледняване на спомените, но не и добавянето на неверни подробности.

Лофтус също така е изследвала потенциала на „push polls“ да объркват ума, при които анкетьорите вмъкват невярна информация в даден въпрос, като например: „Какво бихте мислили за Джо Байдън, ако знаехте, че е бил осъден за укриване на данъци?“ Тя каза, че е стряскащо да се помисли колко ефективно изкуственият интелект би могъл да извършва този вид измама в голям мащаб.

Манипулирането на паметта, отбелязва Пат Патаранутапорн, изследовател в MIT Media Lab, е процес, който се различава значително от заблуждаването на хората с фалшиви изображения. Не е необходимо да се създава сложна фалшификация, например на уебсайта на New York Times – достатъчно е да се убедят хората, че са чели нещо там в миналото. „Хората обикновено не поставят под съмнение собствената си памет“, казва той.

Патаранутапорн е водещ автор на три експеримента с паметта, първият от които показа как разпитващите чатботове могат да променят показанията на свидетелите, просто като вмъкват подсказки в своите въпроси – AI разширение на по-ранната работа на Лофтус върху разпитите на хора.

В това проучване участниците гледаха видеозапис на въоръжен грабеж. На някои от тях бяха зададени подвеждащи въпроси, като например: „Имаше ли охранителна камера близо до мястото, където грабителите паркираха колата?“ Около една трета от участниците по-късно си спомниха, че са видели грабителите да пристигат с кола. А всъщност нямаше кола. Фалшивият спомен се запази дори и седмица по-късно.

Участниците бяха разделени на три групи: едната не получи подвеждащи въпроси, другата ги получи в писмена форма, а третата ги получи от чатбот с изкуствен интелект. Групата с чатбота създаде 1,7 пъти повече фалшиви спомени в сравнение с тези, които получиха подвеждаща информация в писмена форма.

Друго проучване показа, че нечестните AI обобщения или чатботове могат лесно да вмъкнат фалшиви спомени в история, която хората четат. Още по-притеснително, според Патаранутапорн, е, че участниците, които получиха подвеждащи AI обобщения или чатове, също запазиха по-малко от реалната информация от прочетеното и заявиха по-малко доверие в истинската информация, която си спомняха.

Третото проучване демонстрира как AI може да имплантира фалшиви спомени, използвайки изображения и видео. Изследователите разделиха 200 доброволци на четири групи. Участниците във всяка група разгледаха набор от 24 изображения – някои от тях бяха типични изображения, намиращи се на новинарски уебсайтове, а други бяха лични, като например сватбени снимки, които някой би публикувал в социалните медии.

При второто гледане, няколко минути по-късно, на всяка група беше показана различна версия на изображенията. Една група видя същите (непроменени) изображения. Втора група видя версии, променени с AI. Трета група видя изображения, модифицирани с AI, превърнати в къси видеоклипове, генерирани с AI. Последната група видя изцяло изображения, генерирани с AI, които бяха превърнати във видеоклипове, генерирани с AI.

Дори групата, която видя оригиналните изображения, запази няколко фалшиви спомена – което не е изненадващо, като се има предвид колко е трудно да се запомнят 24 различни картини. Но участниците, изложени на някаква степен на манипулация от AI, съобщиха за значително повече фалшиви спомени. Групата с най-висок процент на изкривяване на паметта беше тази, която гледаше видеоклипове, генерирани от AI въз основа на изображения, генерирани от AI.

По-младите хора бяха малко по-склонни да включват фалшиви спомени, отколкото по-възрастните. А нивото на образование не изглеждаше да влияе на податливостта. Забележително е, че фалшивите спомени не се основаваха на заблуждаването на участниците, че съдържанието, генерирано от AI, е реално – от самото начало им беше казано, че ще гледат съдържание, създадено от AI.

В експеримента с изображенията някои от промените включваха изменения във фона – добавяне на военно присъствие към публично събиране или промяна на времето. Изображенията запазиха повечето от характеристиките на оригинала. Както научих от експерти, за да има реално въздействие, дезинформацията трябва да включва история, която е поне 60% вярна.

Това най-ново проучване трябва да предизвика повече дискусии за ефектите на технологиите върху нашето възприемане на реалността, което може да надхвърли простото разпространяване на дезинформация. Алгоритмите на социалните медии също насърчават хората да приемат крайни идеи и конспиративни теории, като създават фалшивото впечатление за популярност и влияние.

Чатботовете с изкуствен интелект ще имат още по-фини и неочаквани ефекти върху нас. Всички трябва да сме отворени към промяна на мнението си въз основа на нови факти и силни аргументи – и да се пазим от опитите да ни променят мнението, като изкривяват това, което виждаме, чувстваме или помним.

Ф.Д. Флам е колумнист в Bloomberg Opinion, който пише по научни теми. Тя е водеща на подкаста „Follow the Science”.