Бизнес старт

Всеки делник от 9:30 часа
Водещи: Роселина Петкова и Христо Николов

Как работи deepfake и на какво е способен?

Репортаж, "Бизнес старт", 16.02.2024 г.

15:33 | 16 февруари 2024
Автор: Милен Симеонов

Светът е залят от deepfakes - видео, аудио или изображения, които изкривяват реалния облик на личности, вменявайки им фалшиви характеристики и действия. Те се създават с помощта на изкуствен интелект (АI), обучен да разпознава модели в реални видеозаписи на определена личност. След това е възможно да се замени елемент от съдържанието, като например лицето на човека, без това да изглежда като груб монтаж. Манипулациите са най-подвеждащи, когато се използва технология за клониране на гласа. Тя успява да разцепи и усвои всяка буква по начина, по който я изговаря „жертвата“ и създава автентично видео съдържание. Много от тези фалшиви материали се правят, за да придадат достоверност на лъжи и да навредят на репутацията на известни личности.

Случаите на deepfake зачестяват от края на януари, когато фалшиви порнографски снимки на попзвездата Тейлър Суифт обиколиха социалните мрежи. Много от тях се появиха в платформата X, която заяви, че работи по премахването на "всички идентифицирани изображения" и ще предприеме подходящи мерки срещу тези, които са ги публикували, а малко по-късно блокира търсенията за Суифт. Въпреки това според източници един от постовете е прекарал около 17 часа и е събрал над 45 милиона преглеждания. Инцидентът с певицата предизвика изразяване на загриженост от страна на Белия дом, който заяви, че Конгресът трябва да обмисли законодателство за справяне с фалшивите изображения с неправомерно съдържание, които се разпространяват онлайн.

Дълбоките фалшификати се превръщат във все по-наболял проблем, появявайки се дори около президентските избори в САЩ през 2024 г. Наскоро жителите на Ню Хемпшир получават роботизирано обаждане преди президентските първични избори в щата, което наподобява гласа на президента Джо Байдън и ги призоваваше да останат вкъщи и да "запазят вота си за изборите през ноември". Гласът дори възпроизвежда характерни за Байдън фрази.

Фрапиращите deepfake случаи не спират дотук. Малко по-назад във времето, през май 2023 г., генериран от AI образ повлия на пазара, като за кратко свали цените на акциите. Това се случи след като фалшифицирана снимка на експлозия в близост до Пентагона се разпространи широко в социалните медии. Експертите заявиха, че фалшификатът е имал отличителните белези на генериран от изкуствен интелект. Опасенията са, че дълбоките фалшификати ще станат толкова убедителни, че ще бъде невъзможно да се различи кое е истинско и кое е изфабрикувано. Допълнителен риск е, че повишаването на осведомеността за дълбоките фалшификати ще улесни хората, които наистина са заснети да правят или казват неприемливи или незаконни неща, да твърдят, че доказателствата срещу тях са фалшиви.

В борбата с deepfake съдържанието през ноември 2022 г. Intel Corp. пусна на пазара продукта FakeCatcher, за който твърди, че може да открива фалшиви видеа с 96% точност, като наблюдава фините промени в цвета на кожата на обекта, причинени от притока на кръв. Компании, сред които и Microsoft Corp. обещаха да вграждат цифрови водни знаци в изображения, създадени с помощта на техните инструменти за изкуствен интелект, за да ги различават като фалшиви. Регулация на изкуствения интелект остава в полезрението на законодателите като необходима за справяне с подобни проблеми.

Целия репортаж гледайте във видеото.

Всички гости на предаването "Бизнес старт" може да намерите тук.