fallback

В мътните води на AI съмнения дамгосват истински кадри от войната между Израел и "Хамас"

Въздействието на генеративния изкуствен интелект надхвърля само създаването на фалшиво съдържание, той хвърля дълга сянка и върху съдържанието, което е истинско

17:30 | 1 ноември 2023
Автор: Марги Мърфи

Изображение на окървавен труп. Снимка на плачещо бебе, редактирана така, че да изглежда сякаш лежи в развалини. Снимки на това, което на пръв поглед изглежда като цял квартал, изравнен със земята в Газа.

Няма съмнение, че дълбоките фалшификати - изображения и видеоклипове, които се променят цифрово и се разпространяват, за да формират фалшиви разкази - са използвани и от двете страни във войната между Израел и Хамас. Много от тях имат характеристиките на съдържание, създадено с инструменти за генеративен изкуствен интелект.

По-малко ясно е дали изображенията влияят на масите в социалните медии или на решенията.

По-голямата част от фалшивите снимки, които се появиха в платформи, включително X и Facebook, след като "Хамас" нападна Израел преди две седмици, са това, което Хенри Айдер, експерт по дълбоки фалшификати и генеративен изкуствен интелект, нарича "шок и страхопочитание". Създателите им са имали за цел те да бъдат "много емоционални, много сензационни" и да предизвикват незабавни емоционални реакции, като например изображения на ранено бебе или разрушени сгради, казва той.

Айдер обясни още, че дълбоките фалшификати показват изображения, които са "незабавно разпознаваеми, и които всъщност не е необходимо да слушате или да се занимавате с тях толкова много".

Например едно от изображенията на Х - идентифицирано като фалшиво от инструмент за откриване на дълбоки фалшификати, създаден от професор от Калифорнийския университет в Бъркли - претендира, че показва две деца, които се прегръщат сред развалините, като малкото момиче е увито в палестинското знаме.

Този тип дълбоки фалшификати изненадаха Айдер и други експерти, които бяха свикнали да виждат дълбоки фалшификати на високопоставени служители, които изричат изявления, които никога не са правили, какъвто беше случаят с политиката на САЩ и войната в Украйна.

Някога груби и лесни за откриване, дълбоките фалшификати станаха значително по-реалистични и по-лесни за създаване с появата на генеративни инструменти за изкуствен интелект. Но във време, когато неверните твърдения в социалните медии се превърнаха в норма при политически кампании, войни и други важни събития, разпространението на трудни за откриване фалшиви изображения заплашва да направи още по-трудно за потребителите да си съставят мнение въз основа на действителни факти.

"Слабо контекстуализираното, ненадеждно разпознаване на дълбоки фалшификати" е "по-вредно, отколкото ако изобщо нямаше такова разпознаване", казва Айдер. "То създава илюзията, че има път към истината и решителна оценка, докато всъщност, както знаем, това не е така." "Бонусът за лъжците е вероятно още по-опасен", добави Адждер.

Според анализ на компанията Accrete, занимаваща се с изкуствен интелект, за Bloomberg News, пет акаунта, които принадлежат на мрежа, свързана с "Хамас" - която е обявена за терористична организация от САЩ и Европейския съюз - редовно твърдят, че реални кадри от Израел са генерирани от изкуствен интелект като средство за дискредитирането им. 

В един от последните примери стартъп, наречен Optic, определи снимка, споделена от израелското правителство, като фалшива, на която се виждат останките на подпалено бебе, което доведе до широк скептицизъм в интернет. Хани Фарид, професорът от Калифорнийския университет в Бъркли, обаче твърди, че снимката е истинска.

Optic не отговори на съобщението с молба за коментар. 

"Въздействието на генеративния изкуствен интелект надхвърля само създаването на фалшиво съдържание, той хвърля дълга сянка и върху съдържанието, което е истинско", казва Фарид. 

Анди Карвин, старши научен сътрудник в Лабораторията за цифрови криминалистични изследвания към Атлантическия съвет, заяви, че не е необичайно да се отиде в коментарите във Facebook и X и под реални изображения да се видят хора, които оспорват тяхната автентичност или контекста. "Други просто ще кажат: "Deepfake!" и това е всичко. Край на разговора", казва той. 

Технологията, създадена от Фарид от Бъркли, е открила дълбоки фалшификати в X на множество изображения на деца сред разрушени сгради. Той каза, че е трудно да се определи колко от тях се разпространяват, но ежедневно получава заявки да определи дали дадено изображение е истинско или не. "Има много такива", казва той. "Виждам този проблем не толкова като проблем с обема, колкото като проблем с информационното замърсяване."

Карвин от Атлантическия съвет заяви, че дълбоко фалшивите изображения се публикуват онлайн от акаунти, свързани с израелци и палестинци. "Виждали сме примери за хора, които създават изображения, за да се обединят около определена кауза, и те често включват деца", каза той. Инструментите за генериращ изкуствен интелект обикновено имат ограничения за създаване на съдържание с насилие, каза Карвин, но обясни, че е лесно да се помоли някой от тях да създаде изображение на деца, стоящи сред развалини, след въздушен удар.

Само едно от петте изображения в X, идентифицирани като дълбоки фалшификати от Bloomberg News, използвайки технологията на Фарид, имаше етикет, предупреждаващ, че не е истинско, въпреки политиката на компанията, която забранява на потребителите да споделят синтетични и манипулирани медийни материали, които могат да объркат хората и "да доведат до вреда".

Според анализатор с фокус върху Близкия изток в DFRL на Атлантическия съвет, който е помолил да не бъде назоваван от съображения за сигурност, дълбоките фалшификати, свързани с войната между Израел и "Хамас", се появяват в арабскоговорящи новинарски издания, освен че се появяват и в социалните медии. Едно от фалшивите изображения - за което се твърди, че показва бежански лагер за израелци в окупираните палестински територии - е било споделяно многократно в арабскоговорящи новинарски издания, включително едно със седалище в Йемен и друго със седалище в Дубай. Според анализатора изображението е имало предупредителни знаци за изкуствен интелект, като израелското знаме е показвало двойна звезда на Давид, а някои от палатките са изглеждали деформирани.

fallback
fallback