Приложенията, използващи AI, за да събличат жени на снимки, се използват все по-често

Според компанията за анализ на социалните мрежи Graphika само през септември 24 милиона души са посетили уебсайтове за разсъбличане

18:50 | 8 декември 2023
Автор: Марги Мърфи
Снимка: Bloomberg L.P.
Снимка: Bloomberg L.P.

Според изследователи приложенията и уебсайтовете, които използват изкуствен интелект, за да разсъбличат жени на снимки, стават все по-популярни. Данни на компанията за анализ на социалните мрежи Graphika показват, че само през септември 24 милиона души са посетили уебсайтове за разсъбличане.

Анализатори от Graphika казват, че много от тези услуги за събличане или "разголване" използват популярни социални мрежи за маркетинг. Така например от началото на тази година броят на линковете, рекламиращи приложения за разсъбличане, се е увеличил с над 2400% в социалните мрежи, включително в X и Reddit, твърдят изследователите. Услугите използват изкуствен интелект, за да пресъздадат изображение, така че човекът да е гол. Много от услугите работят само върху жени.

Тези приложения са част от обезпокоителна тенденция за създаване и разпространение на порнография без съгласието на потребителите благодарение на напредъка на изкуствения интелект - вид измислена медия, известна като deepfake порнография. Разпространението ѝ се сблъсква със сериозни правни и етични пречки, тъй като изображенията често се вземат от социалните медии и се разпространяват без съгласието, контрола или знанието на обекта.

В едно от изображенията, публикувани в X, в което се рекламира приложение за събличане, се използва език, който подсказва, че клиентите могат да създават голи снимки и след това да ги изпращат на лицето, чието изображение е било цифрово съблечено, като по този начин подтикват към тормоз. Междувременно едно от приложенията е платило за спонсорирано съдържание в YouTube на Google и се появява на първо място при търсене с думата "nudify".

Говорител на Google заяви, че компанията не разрешава реклами, "които съдържат открито сексуално съдържание. Прегледахме въпросните реклами и премахваме тези, които нарушават нашите политики." Нито X, нито Reddit отговориха на молбите за коментар.

Порнографско съдържание с участието на публични фигури създадено без тяхното разрешени отдавна е проблем в интернет, но експертите по защита на личните данни са все по-загрижени, че напредъкът в технологиите на изкуствения интелект е направил софтуера за deepfake по-лесен и по-ефективен.

"Виждаме, че все повече такива действия се извършват от обикновени хора с обикновени цели", казва Ева Галперин, директор на отдела за киберсигурност във фондация "Електронна граница". "Виждаме го сред ученици в гимназията и хора, които учат в колеж."

Много от жертвите никога не научават за изображенията, но дори и тези, които научат, могат да се затруднят да накарат правоприлагащите органи да проведат разследване или да намерят средства за водене на съдебни дела - казва Галперин.

Понастоящем няма федерален закон, който да забранява създаването на deepfake порнография, въпреки че правителството на САЩ забранява създаването на такъв вид изображения на непълнолетни. През ноември детски психиатър от Северна Каролина беше осъден на 40 години затвор за това, че е използвал приложения за разсъбличане на снимки на свои пациенти - първото по рода си съдебно преследване по силата на закон, забраняващ генерирането на deepfake материали за сексуална злоупотреба с деца.

TikTok блокира ключовата дума "събличане" - популярен термин за търсене, свързан с услугите, като предупреди всеки, който търси думата, че тя "може да е свързана с поведение или съдържание, което нарушава нашите насоки", според приложението. Представител на TikTok е отказал да даде повече подробности. В отговор на въпросите Meta Platforms Inc. също започна да блокира ключови думи, свързани с търсенето на приложения за събличане. Представител на компанията е отказал коментар.