Пиктограми на омразата

Модерирането на емоджита е техническо предизвикателство, но критиците казват, че Facebook и Twitter го правят твърде трудно.

09:00 | 22 октомври 2021
Обновен: 13:06 | 26 октомври 2021
Снимка: Bloomberg L.P.
Снимка: Bloomberg L.P.

Във футболен мач в Гудисън Парк в Ливърпул през 1988 г. играчът Джон Барнс се оттегли от позицията си и използва задната част на петата си, за да изрита банан, който е бил хвърлен към него. Запечатан в емблематична снимка, моментът капсулира расовата злоупотреба, с която черните футболисти се сблъскаха след това във Великобритания.

Повече от 30 години по-късно средата се промени, но расизмът продължава: След като Англия загуби от Италия през юли на финала на европейското първенство на УЕФА, чернокожите играчи от британската страна се сблъскаха с атака на банани. Вместо физически плод, това бяха емоджита, нанесени в профилите им в социалните мрежи, заедно с маймуни и други изображения. „Въздействието беше толкова дълбоко и толкова значимо, колкото когато това бяха действителните банани“, казва Симон Паунд, директор по равенство, разнообразие и включване в Асоциацията на професионалните футболисти на Великобритания.

Facebook Inc. и Twitter Inc. бяха изправени пред широки критики, тъй като отнеха твърде много време, за да скрият вълната от расистки злоупотреби по време на европейското първенство това лято. Моментът подчерта дългогодишен проблем: Въпреки че прекарваха години в разработването на алгоритми за анализ на вредния език, компаниите в социалните медии често нямат ефективни стратегии за спиране на разпространението на реч на омразата, дезинформация и друго проблемно съдържание в техните платформи .

Емоджитата се очертаха като препъни камък. Когато Apple Inc. представи емоджи с различни тонове на кожата през 2015 г., технологичният гигант беше подложен на критика, че позволява расистки коментари. Година по-късно правителството на Индонезия подаде жалби, след като поиска социалните мрежи да премахнат емоджита, свързани с ЛГБТК. Някои емотикони, включително този, изобразяващ торба с пари, са свързани с антисемитизма. Често чернокожите футболисти са на прицел.

Асоциацията на професионалните футболисти и компанията за научни данни Signify проведе миналата година проучване на расистки туитове, насочени към играчите, и установи, че 29% включват някаква форма на емоджи.

През последното десетилетие приблизително 3 000 пиктографии, които съставляват емоджи език, са жизненоважна част от онлайн комуникацията. Днес е трудно да си представим разговор с текстово съобщение без тях. Неяснотата, която е част от техния чар, обаче не идва без проблеми. Намигващото личице може да показва шега или флирт. В крайна сметка съдилищата обсъждат въпроси като това дали се счита за заплаха да изпратите на някого емоджи от пистолет.

Този въпрос е объркващ за човешките адвокати, но е още по-объркващ за компютърно базирани езикови модели. Някои от тези алгоритми са обучени в бази данни, които съдържат малко емотикони, казва Хана Роуз Кърк, докторант в Интернет институт в Оксфорд. Тези модели разглеждат емоджитата като нови герои, което означава, че алгоритмите трябва да започнат от нулата, анализирайки тяхното значение въз основа на контекста.

„Това е нова нововъзникваща тенденция, която хората не осъзнават толкова много, а моделите изостават от хората“, казва Люси Васерман, която е инженерен мениджър на екип в Jigsaw на Google, който разработва алгоритми за маркиране на злоупотребяваща реч онлайн. Важното е „колко често се появяват във вашите данни за тестове и обучение“. Нейният екип работи по два нови проекта, които биха могли да подобрят анализа на емоджита, един, който включва извличане на огромни количества данни за разбиране на езиковите тенденции, и друг, който влияе върху несигурността.

Техническите компании посочват техническата сложност, за да скрият по-ясни решения на много от най-често срещаните злоупотреби, според критиците. „Повечето употреби не са двусмислени“, казва Матю Уилямс, директор на HateLab на университета в Кардиф. „Не се нуждаем само от по-добър AI за напред, а от по-големи и по-добри модерационни екипи.“

Използването на емотикони е недоанализирано по отношение на значението му за съвременната онлайн комуникация, казва Кърк. Тя намери пътя си към изучаване на пиктограмите след по-ранна работа по мемите. „Нещото, което сметнахме за озадачаващо като изследователи, беше, защо Twitter и Instagram и решенията на Google не са по-добри в омразата, базирана на емотикони?“ тя казва.

Разочарована от лошото представяне на съществуващите алгоритми при откриване на заплашителна употреба на емоджи, Кърк изгради свой собствен модел, използвайки хората, за да научи алгоритмите да разбират емоджита, вместо да оставя софтуера да се учи сам. Резултатът, казва тя, е далеч по-точен от оригиналните алгоритми, разработени от Jigsaw и други учени, които нейният екип тества. „Ние демонстрирахме, със сравнително малко усилия и сравнително малко примери, че можете много ефективно да научите емоджитата“, казва тя.

Смесването на хората с технологиите, заедно с опростяването на подхода за модериране на речта, също е печеливша формула за старт-ъп компанията Respondology в Боулдър, Колорадо, която предлага своите инструменти за скрининг в Nascar, NBA и NFL. Работи с Детройт Пистънс, Денвър Бронкос и водещи английски футболни отбори. Вместо да разчита на сложен алгоритъм, компанията позволява на екипите да скриват коментари, които включват определени фрази и емотикони с общ екран. „Всеки клиент, който идва при нас, особено спортните клиенти- лиги, отбори, клубове, спортисти- всички питат за емоджи в първия разговор“, казва Ерик Суейн, президент на Respondology. „Почти не се нуждаете от AI обучение на вашия софтуер, за да го направите.“

Facebook признава, че е казал неправилно на потребителите, че определени емотикони, използвани по време на европейското първенство на УЕФА това лято, не са нарушили политиките му, докато всъщност са го направили. Той казва, че е започнал автоматично блокиране на определени низове емоджи, свързани със злоупотреба, и също така позволява на потребителите да посочат кои емоджита не искат да виждат. Twitter заяви в изявление, че правилата му срещу злоупотребяващи публикации включват омразни изображения и емотикони.

Тези действия може да не са достатъчни, за да потушат критиците. Професионалните спортисти, които говорят за расистката злоупотреба, с която се сблъскват, се превърна в още един фактор в по-широкия поход към потенциалното правителствено регулиране на социалните медии. „Всички кършим ръце и съжаляваме, но те не са направили нищо, поради което трябва да приемем законодателство“, казва Дамян Колинс, член на британския парламент, който ръководи работата по законопроекта за онлайн безопасност. „Ако хората, които имат интерес да генерират вредно съдържание, могат да видят, че платформите са особено неефективни при забелязването на използването на емоджи, тогава ще видим все повече и повече емоджита, използвани в този контекст.“ - Иван Левингстън, с Адеола Ерибейк

В ЗАКЛЮЧЕНИЕ Поправянето на порой от расистки емотикони може да не е напълно автоматизирана система за модериране, а повече хора, които често правят доста прости преценки.