Защо дълбоките фалшификати са навсякъде? Могат ли да бъдат спрени?

Видът машинно обучение, който създава дълбоките фалшификати, не може лесно да бъде "обърнат", за да ги открива

25 May 2025 | 18:30
Автор: Нейт Ланксън, Омар Ел Чмури
Редактор: Галина Маринова
Снимка: Bloomberg LP
Снимка: Bloomberg LP

Интернет е залят от дълбоки фалшификати - аудио, снимки или видео, направени с помощта на инструменти за изкуствен интелект, в които хората изглеждат, че правят или казват неща, които не са, че са някъде, където не са, или че променят външния си вид. Някои от тях включват нудификация, при която снимките се променят, за да изобразяват някого без дрехи. Други дълбоки фалшификати се използват за измама на потребители или за увреждане на репутацията на политици и други хора, които са в центъра на общественото внимание.

Напредъкът в изкуствения интелект означава, че са необходими само няколко докосвания на клавиатурата, за да се създаде реалистичен дълбоко фалшив текст. Разтревожените правителства се опитват да дадат отпор, но това е загубена битка. Според данни на компанията за проверка на самоличността Signicat опитите за измама с помощта на дълбоки фалшификати са се увеличили повече от 20 пъти през последните три години.

Какво се прави за борба с дълбоките фалшификати?

На 19 май президентът на САЩ Доналд Тръмп подписа закона „Take It Down Act“, с който се криминализира генерираната от изкуствен интелект неконсенсусна порнография, известна още като deepfake revenge porn, и се задължават компаниите за социални медии да премахват споделянето на такива явни сексуални изображения при поискване.

Миналата година Федералната комисия по комуникациите на САЩ (ФКК) обяви за незаконно използването от страна на компаниите на гласове, генерирани от изкуствен интелект, в обажданията на роботи. Забраната дойде два дни, след като ФКК издаде заповед за прекратяване на действията срещу компанията, отговорна за аудиофалшификат на президента Джо Байдън. Жителите на Ню Хемпшир получиха преди президентските първични избори в щата роботизирано обаждане, което звучеше като от Байдън и ги призоваваше да си останат вкъщи и да „запазят гласа си за изборите през ноември“.

Законът за изкуствения интелект на Европейския съюз изисква от платформите да обозначават дълбоките фалшификати като такива. Китай въведе подобно законодателство през 2023 г. На 28 април комисарят по въпросите на децата в Англия призова британското правителство да забрани приложенията за нудификация, които са широко достъпни онлайн.

Къде другаде дълбоките фалшификати са били в новините?

През януари 2024 г. в социалните медии бяха широко разпространени експлицитни дълбокофалшиви изображения на попзвездата Тейлър Суифт, което предизвика гнева на легионите ѝ фенове и загрижеността на Белия дом.

По време на президентските избори в САЩ през 2024 г. Илон Мъск сподели дълбокофалшив предизборен видеоклип с участието на кандидата на демократите Камала Харис, без да го обозначи като подвеждащ. Манипулираният с изкуствен интелект глас във видеото изглеждаше така, че тя нарича президента Джо Байдън сенилен и заявява, че „не знае нищо за управлението на страната“. Видеото събра десетки милиони гледания. В отговор губернаторът на Калифорния Гавин Нюсъм обеща да забрани дигитално променените политически фейкове и подписа закон за това през септември.

Как се създават видеоклиповете с дълбоки фалшификати?

Те често се създават с помощта на алгоритъм на изкуствен интелект, който е обучен да разпознава модели в реални видеозаписи на определено лице - процес, известен като дълбоко обучение. След това е възможно да се замени елемент от един видеоклип, като например лицето на човека, в друго съдържание, без то да изглежда като груб монтаж. Манипулациите са най-подвеждащи, когато се използват с технологията за клониране на глас, която разгражда аудиоклип на говорещ човек на части от половин сричка, които могат да бъдат сглобени в нови думи, които изглеждат като изречени от човека в оригиналния запис.

Как се появиха дълбоките фалшификати?

Първоначално технологията е в сферата на академичните среди и изследователите. През 2017 г. обаче Motherboard, публикация на Vice, съобщи, че потребител на Reddit, наречен „deepfakes“, е разработил алгоритъм за създаване на фалшиви видеоклипове, използвайки код с отворен код. Reddit забрани потребителя, но практиката се разпространи. Първоначално deepfakes изискваха вече съществуващо видео и истинско вокално изпълнение, както и умели умения за редактиране.

Днешните генеративни системи за изкуствен интелект позволяват на потребителите да създават убедителни изображения и видеоклипове от прости писмени подсказки. Поискайте от компютър да създаде видеоклип, вкарвайки думи в нечия уста, и той ще се появи.

Как можете да разберете дали това е deepfake?

Цифровите фалшификати стават все по-трудни за откриване, тъй като компаниите за изкуствен интелект прилагат новите инструменти към огромното количество материали, налични в интернет - от YouTube до библиотеки с изображения и видеоматериали.

Понякога има ясни признаци, че дадено изображение или видеоклип е генерирано с помощта на ИИ, като например неправилно поставен крайник или ръка с шест пръста. Може да има несъответствия между цветовете на редактираните и нередактираните части на изображението. Видеоклиповете с дълбоко подправени изображения понякога не съответстват на речта и движенията на устата. ИИ може да изпитва затруднения при изобразяването на фините детайли на елементите, като например косата, устата и сенките, а ръбовете на обектите понякога могат да бъдат назъбени и пикселизирани.

Но всичко това може да се промени с усъвършенстването на моделите на основата на озвучаването.

А какви са другите примери за дълбоки фалшификати?

Китайски тролове разпространиха манипулирани изображения на горски пожари на хавайския остров Мауи през август 2023 г., за да подкрепят твърдението, че те са причинени от тайно „метеорологично оръжие“, тествано от САЩ. През май 2023 г. акциите на САЩ се понижават за кратко, след като в интернет се разпространява изображение, на което се вижда, че Пентагонът гори. Експертите твърдят, че фалшивата снимка е имала признаците на генерирана от изкуствен интелект. През февруари същата година се появи изработен аудиоклип, в който се чува как кандидатът за президент на Нигерия Атику Абубакар заговорничи за фалшифициране на вота през този месец. През 2021 г. в социалните медии беше публикуван едноминутен видеоклип, който изглеждаше, че показва как украинският президент Володимир Зеленски казва на войниците си да сложат оръжие и да се предадат на Русия. Други дълбоки фалшификати са безобидни, като например тези на футболната звезда Кристиано Роналдо, който пее арабски стихове.

Каква е опасността тук?

Опасенията са, че дълбоките фалшификати в крайна сметка ще станат толкова убедителни, че ще бъде невъзможно да се различи кое е истинско от кое е изфабрикувано. Представете си измамници, които манипулират цените на акциите, като създават фалшиви видеоклипове на изпълнителни директори, които публикуват корпоративни новини, или фалшиви видеоклипове на войници, извършващи военни престъпления. Политиците, бизнес лидерите и известните личности са особено изложени на риск, като се има предвид колко много записи с тях са достъпни.

Технологията прави възможно т.нар. порно отмъщение, дори и да не съществува реална гола снимка или видео, като обикновено мишена са жените. След като видеоклипът стане вирусен в интернет, е почти невъзможно да бъде задържан. В доклада на комисаря по въпросите на децата в Обединеното кралство от април се подчертава нарастващият страх на децата да не станат жертви на явни дълбоки фалшификати. Допълнително опасение е, че разпространяването на информация за дълбоките фалшификати ще улесни хората, които наистина са заснети да правят или говорят неприемливи или незаконни неща, да твърдят, че доказателствата срещу тях са фалшиви. Някои хора вече използват защитата ,,deepfake" в съда.

Какво още може да се направи, за да се пресекат дълбоките фалшификати?

Видът машинно обучение, който създава дълбоките фалшификати, не може лесно да бъде обърнат, за да ги открие. Но шепа стартъпи, като базираната в Нидерландия Sensity AI и базираната в Естония Sentinel, разработват технологии за откриване, както и много големи американски технологични компании.

Компании, сред които Microsoft Corp., обещаха да вграждат цифрови водни знаци в изображения, създадени с помощта на техните инструменти за изкуствен интелект, за да ги различават като фалшиви. Разработчикът на ChatGPT OpenAI е разработил технология за откриване на изображения с изкуствен интелект, както и начин за поставяне на водни знаци върху текст - въпреки че не е публикувал последния, отчасти защото твърди, че е „елементарно“ за лошите играчи да го заобиколят.