Технологичните директори отговарят пред Сената за безопасния за деца интернет

Камил Карлтън, директор на Центъра за хуманна технологична политика

12:30 | 2 февруари 2024
Обновен: 13:15 | 2 февруари 2024
Преводач: Петя Кушева

Каква политика може да се приложи, за да се гарантира, че е малко по-безопасно за децата? Не можем да убием човечеството, но можем да сложим малко бариери технологията или просто мерки в по-широк план.

Да определено. Намираме се в момент, в който, както всички казват, сме доволни, че се провеждат такива заседания, защото обществото трябва да го види. Но също сме на такъв етап на демократичния процес, където е време да се упражни натиск за промени.

В законопроектите, специално за безопасността на децата, търсим 3 основни стълба. Искаме задължение за грижа, което означава точно както лекаря има отговорност да гарантира, че пациентите се лекуват в най-добрия им интерес. Искаме платформи, които да гарантират, че не са вредни за децата. Искаме поверителност по подразбиране.

Това означава, че ако едно дете влезе в Instagram, в момента, в който се регистрират, всичките им настройки са на най-високо ниво на поверителността. Това означава, че няма да получават съобщения от хора, с които не са приятели. Техните профили няма да могат да се виждат от хората. И искаме безопасност, заложена в проекта.

Не искаме повече пристрастяващи функции, за които е известно, че са вредни за децата, които платформите продължават да използват, защото ги задържат по-дълго.

Връщам се към фокуса върху поверителността. Някои компании, например във Франция, която миналата седмица обяви, че можете използвате технологията като сила на доброто. Може да се направи функция за установяване на подходяща възраст. Но тогава се стига до поверителността. Как позволявате на камерата да определи дали едно дете наистина е на възрастта, на която казва, без по някакъв начин да се засегне поверителността? Как да стане технологията само справедлива?

Да, това е страхотен аргумент. Но тези компании вече имат инструменти за оценка на възрастта, които използват, за да разберат на колко години са потребителите им. Делото AGL в 41 щата показа, че Меta знае, че има милиони потребители под 13-годишна възраст на своята платформа, но разкрива тази информация от обществеността.

Те го знаят и използват своите инструменти за оценка, за да насочват реклами към тези деца и да рекламират в тези възрастови групи. Всъщност не се нуждаем от нови технологии. Фирмите вече имат тази информация. Просто трябва да ги въведат.