Планове на Франция за наблюдение с AI камери разбуниха духовете

Париж планира да използва камерите на Олимпиадата, но някои смятат, че това нарушава правата за поверителност

20:20 | 6 април 2023
Автор: Николета Рилска
Снимка: Christophe Morin/Bloomberg
Снимка: Christophe Morin/Bloomberg

Френските законодатели одобриха планове за използване на интелигентни камери за наблюдение като временна мярка за сигурност на Олимпийските игри в Париж през 2024 г. на фона на възражения, че технологията е натрапчива за жителите, особено ако остане в употреба след края на събитието, съобщава The Wall Street Journal.

Страната одобри законопроект миналия месец, разрешаващ на компаниите да тестват камери за компютърно наблюдение, които да използват на стадиони и близки транспортни възли, за да идентифицират заплахи за сигурността по време на Олимпиадата. Законът, който вероятно ще влезе в сила през следващите месеци, ще позволи камерите да останат до края на 2024 г.

Защитници на поверителността твърдят, че технологията за компютърно зрение, която използва алгоритми за откриване на подозрително поведение или обекти, е инвазивно наблюдение, тъй като разпознава физическите характеристики на хората и изпраща сигнали до органите за сигурност.

Френският регулатор на поверителността посочи, че технологията носи рискове, но не е наравно с камерите за лицево разпознаване, които идентифицират конкретни лица въз основа на уникални характеристики.

„Трябва да експериментираме, за да научим повече за ефективността на тази технология“, заяви Бертран Пайлес, ръководител на отдела за технологии и иновации в Cnil, френският регулатор за защита на данните.

Използването на камери на обществени места е противоречиво, тъй като те могат да записват изображения на всеки, който минава в района. Пайлес заяви, че регулаторът ще съветва компаниите как да спазват правилата за поверителност и ще разследва потенциални нарушения.

Компаниите, разработващи компютърно зрение, се оплакват от бавния темп на получаване на законово одобрение за използване на технологията в обществени пространства в Европа.

По време на началото на пандемията Covid-19 през 2020 г. използването на камери за компютърно виждане беше критикувано, когато властите за обществен транспорт в Париж тестваха система от френската компания DatakaLab, за да открият дали хората носят маски за лице. Службата на регулатора за защита на данните спря процеса, тъй като нямаше действащ закон, разрешаващ инструментите.

През 2021 г. беше приет закон, позволяващ камерите, но те не бяха поставени отново, посочва Ксавие Фишер, главен изпълнителен директор на DatakaLab. Фишер отбелязва, че оттогава компанията е спряла да работи с компютърно зрение, защото правните въпроси правят пазара твърде непредвидим.

Защитници на неприкосновеността на личния живот се притесняват, че използването на камери за компютърно виждане на Олимпиадата ще отвори вратата за наблюдение от страна на полицията и други организации.

„Олимпийските игри всъщност са чудесно оправдание за тях да направят тази технология приемлива“, твърди Ноеми Левен, правен съветник в La Quadrature du Net, френска организация с нестопанска цел, която се застъпва за неприкосновеността на личния живот и цифровите права. Групата казва, че законът ще направи Франция първата европейска страна, която легализира биометричното наблюдение.

Съгласно знаковия закон за поверителността на Общия регламент за защита на данните на Европейския съюз от 2018 г. се изискват по-строги предпазни мерки, ако компаниите обработват биометрични данни като пръстови отпечатъци, които могат да идентифицират дадено лице. Камерите за компютърно зрение не са предназначени за автоматично идентифициране на хора и следователно не са форма на биометрично наблюдение, отбелязва Пайлес.

Левейн и други защитници на поверителността не са съгласни. Камерите, които записват човешкото поведение и използват алгоритми, обучени да разпознават определени видове дейност, са форма на биометрично наблюдение, твърди тя.

Тестовете преди Олимпиадата ще помогнат на френския регулатор да определи дали рисковете за поверителността означават, че технологията трябва да бъде разрешена за някои приложения, а не за други, посочва Пайлес. Регулаторът също така ще може да види дали разполага с персонала и експертизата, за да разследва такива инструменти с изкуствен интелект преди предстоящия закон на ЕС за засилване на надзора върху AI, който се очаква да влезе в сила през следващата година, добавя той.

„На този етап не знаем точно какво може да направи технологията добре“, казва Пайлес.