fallback

Идеята на Facebook за самоконтрол не е толкова прозрачна, колкото изглежда

Компанията разчита на изкуствен интелект за премахване на неприемливи публикации, но това може да доведе до грешки

10:10 | 27 март 2021
Автор: Радостина Ивчева

През тази седмица главният изпълнителен директор на Facebook Марк Зукърбърг представи идеята си, че Big Tech може да се самоконтролират, като публикува доклади и данни за това колко добре индустрията премахва неприятните публикации. Проблемът е, че Facebook вече има изградена система, която не е направила много за подобряване на отчетността, заявяват външни експерти.

„Прозрачността може да помогне на компаниите да бъдат отговорни за това каква точност и ефективност постигат“, каза Зукърбърг пред Конгреса в четвъртък. Facebook не би трябвало да се променя много, ако подобна система е отраслова норма, добави той. „Като модел Facebook прави нещо в този смисъл през всяко тримесечие“, каза той, цитиран от Bloomberg.

Зукърбърг многократно прокарва предложението си на фона на все по-широки призиви социални мрежи да станат по-отговорни за съдържанието, което потребителите публикуват. Тъй като технологичните платформи попадат в обстрел за увеличаване на вредните публикации, от речта на омразата до заплахите за насилие, американските законодатели обсъждат как да реформират раздел 230 от Закона за благоприличие в комуникациите, който предпазва компаниите от отговорност за генерирано от потребителите съдържание.

Въпреки че репресиите срещу Big Tech се обсъждат от години, призивът за подновяване на действията идва, след като социалните мрежи бяха критикувани за участие в разпространението на дезинформация, която подклаждаше бунтовете в Капитолия през януари и неверни твърдения за Covid-19. Изслушването в четвъртък не доближи Конгреса до законодателно решение, като даде възможност на Facebook да повлияе на резултата.

Facebook съобщи през февруари, че над 97% от съдържанието, категоризирано като реч на омразата, е открито от неговия софтуер, преди да бъде докладвано от потребител, и че софтуерът е действал срещу 49% от публикациите, съдържащи тормоз в основната си социална мрежа в четвъртото тримесечие, спрямо 26% през третото тримесечие. Но знаменателят на уравнението е това, което AI на Facebook премахна, а не общото количество вредно съдържание. И Facebook не споделя колко хора са разглеждали публикациите преди да бъдат премахнати или колко време са те са циркулирали в мрежата.

„Беше малко шокиращо и разочароващо, че Зукърбърг спомена този доклад като нещо, към което индустрията трябва да се стреми. Този доклад за прозрачност не даде никаква прозрачност“, каза Фади Коран, директор на кампании в Avaaz, който проследява дезинформацията и друго вредно съдържание във Facebook.

Докладът се фокусира върху изкуствения интелект, което означава, че не разкрива съдържание, което човешките потребители на Facebook означават като нарушение на политиката, какъв дял от него се премахва, след като бъде докладвано, или дали изобщо някой преглежда тези пуликации.

Система като Facebook, която разчита на машинно обучение, има значителни недостатъци, когато се прилага широко, заяви Ема Лансо, директор на Центъра за демокрация и технологии. „Наистина започва да се увеличава риска автоматизираните системи да пропуснат нещо, като дават фалшиви отрицателни и положителни резултати или напълно приемлива реч се сваля по погрешка“, каза тя.

Капаните на зависимостта на Facebook от AI бяха очертани по-рано тази година от външния надзорен съвет на компанията, независим панел, създаден от Facebook за преглед на най-спорните решения за съдържанието. Съветът наскоро отмени решението на Instagram да премахне публикация, повишаваща осведомеността за симптомите на рак на гърдата, въпреки че осведомеността за рака на гърдата беше позволено изключение от политиката на компанията за голота.

„Неправилното отстраняване на този пост показва липсата на подходящ човешки надзор, което поражда опасения за правата на човека“, пише бордът. Откриването и премахването на тази публикация беше изцяло автоматизирано. Панелът поиска потребителите да бъдат уведомени, ако съдържанието им е било премахнато от AI и да им бъде дадена възможност човек да разгледа обжалването.

Facebook заяви, че предоставянето на потребителите на такъв вариант би било оперативно трудно. Услугите на Facebook имат над 3 милиарда потребители и около 15 000 модератори на съдържание, някои от които работят от вкъщи поради пандемията - и не могат да разглеждат най-чувствителното съдържание извън офиса по правни причини.

Недостигът на човешки персонал, както и изкуственият интелект, който все още се разработва, създава особени предизвикателства за глобалната мрежа на Facebook. „Трябва да изградим системи, които да обработват това съдържание на повече от 150 езика. И за съжаление има някои грешки в опитите да се направи това бързо и ефективно“, каза Зукърбърг в четвъртък.

Докладите за прозрачност на съдържанието не съдържат данни за езиците или географския район, от който са направени на публикациите, срещу които Facebook прилага своите правила. Освен това не се казва нищо за дезинформацията - друга ключова област, която тревожи законодателите.

fallback
fallback