Миналата седмица DeepSeek предизвика паника в Силициевата долина, като доказа, че може да се създаде мощен изкуствен интелект с малък бюджет. В някои отношения това беше твърде хубаво, за да е истина.
Неотдавнашни тестове показаха, че моделите на изкуствения интелект на DeepSeek са по-уязвими на манипулации от тези на по-скъпите им конкуренти от Силициевата долина. Това оспорва целия наратив „Давид срещу Голиат“ по отношение на „демократизирания“ изкуствен интелект, който се появи след пробива на компанията. Милиардите долари, които OpenAI, Google на Alphabet Inc., Microsoft Corp. и други са похарчили за инфраструктурата на собствените си модели, изглеждат не толкова като корпоративно раздути разходи, колкото като цена за пионерство в надпреварата за ИИ и запазване на лидерството с по-сигурни услуги. Предприятията, които са нетърпеливи да изпробват евтиния и весел инструмент за ИИ, трябва да помислят добре дали да се гмурнат в него.
LatticeFlow AI, швейцарска софтуерна фирма, която измерва доколко моделите на ИИ отговарят на нормативните изисквания, твърди, че две версии на модела R1 на DeepSeek се класират най-ниско сред другите водещи системи, когато става въпрос за киберсигурност. Изглежда, че когато китайската компания е модифицирала съществуващите модели с отворен код на Meta Platforms Inc. и Alibaba, известни като Llama и Qwen, за да ги направи по-ефективни, в процеса на работа тя може да е нарушила някои от ключовите функции за безопасност на тези модели.
Моделите на DeepSeek са били особено уязвими към „отвличане на цели“ и изтичане на информация, казват от LatticeFlow. Това се отнася за случаите, когато изкуственият интелект може да бъде подмамен да пренебрегне предпазните си огради и да разкрие чувствителна информация или да извърши вредни действия, които е трябвало да предотврати. Не успяхме да се свържем с DeepSeek за коментар.
Когато бизнесът включва системите си в генеративен ИИ, той обикновено взема базов модел от компания като DeepSeek или OpenAI и добавя някои свои собствени данни, подкани и логика - инструкции, които бизнесът добавя към модела на ИИ, като например „не говори за съкращаването на бюджета на компанията с 5 млн. долара от миналата година“. Но хакерите потенциално биха могли да получат достъп до тези чувствителни нареждания, казва Петър Цанков, главен изпълнителен директор на LatticeFlow AI.
Други изследователи в областта на сигурността са проучвали моделите на DeepSeek и са открили уязвимости, особено в това да накарат моделите да правят неща, които не би трябвало да правят, като например да дават инструкции стъпка по стъпка как да се създаде бомба или да се подпали автомобил, процес, известен като джейлбрейк (jailbreaking - разбиване на затвора). „[DeepSeek] е напълно незащитен срещу всички подходи за джейлбрейк, докато моделите за разсъждение на OpenAI и Anthropic станаха много по-сигурни в сравнение с по-старите им версии без разсъждения, които тествахме миналата година“, казва Алекс Полаков, главен изпълнителен директор на Adversa AI, израелска фирма за сигурност на изкуствения интелект, която тества моделите на DeepSeek.
Цанков казва, че фирмите, които така или иначе искат да използват DeepSeek благодарение на ниската му цена, могат ефективно да сложат лепенки на проблема. Един от подходите е да се адаптира моделът на DeepSeek с допълнително обучение - процес, който може да струва стотици хиляди долари. Друг вариант включва добавянето на изцяло нов набор от инструкции, които нареждат на модела да не реагира на опити за кражба на информация. Подобно замазване на пукнатините е по-евтино, като според Цанков струва хиляди.
Когато предприятията искат да използват генеративен изкуствен интелект за задачи с нисък риск, като например обобщаване на доклади с данни за вътрешна употреба, тези проблеми със сигурността може да са цена, която си струва да се плати. Но в по-широк план пропуските в сигурността на DeepSeek могат да сринат доверието на бизнеса в момент на сравнително бавен напредък в прилагането на ИИ.
Въпреки че около 50 големи банки увеличиха използването на генеративен ИИ през 2024 г. до около 300 приложения, по-малко от една четвърт от фирмите са в състояние да докладват конкретни данни, сочещи спестяване на разходи, повишаване на ефективността или по-високи приходи, според Evident Insights, базирана в Лондон изследователска фирма.
Инструментите на генеративния изкуствен интелект несъмнено са умни и ще бъдат трансформиращи. Ако перифразираме водещия коментатор на ИИ Итън Молик, най-глупавият инструмент на ИИ, който някога ще използвате, е този, който използвате в момента. Но внедряването им в предприятията е непостоянно и бавно, а част от причините за това са опасенията за сигурността и съответствието. Проучванията на бизнес лидери обикновено показват, че между една трета и половината от тях имат сигурност като основна грижа за ИИ.
Нищо от това не отменя постиженията на DeepSeek. Компанията демонстрира, че разработването на ИИ може да се извършва по-евтино - и като публикува своите проекти в интернет, вероятно ще видим по-големи лаборатории за ИИ да копират резултатите им, за да създадат свои собствени по-ефективни ИИ. Но „по-евтино“ не винаги означава „по-добре“, когато става въпрос за корпоративни технологии. Инфраструктурата за сигурност е скъпа по някаква причина и това предлага на гигантите от Силициевата долина миг на оневиняване. Дори в революцията на ИИ с отворен код получавате това, за което плащате.