Стартъпите се появяват и най-вече изчезват, но Builder.ai е необичаен случай.
След като набра 445 млн. долара от инвеститори, сред които Microsoft Corp. и SoftBank Group Corp., британската фирма влезе в процедура по несъстоятелност тази седмица, след като основен кредитор запорира 37 млн. долара от сметките ѝ, а в сметката на компанията останаха 5 млн. долара. Бивши служители на Builder.ai са заявили пред Bloomberg News, че компанията е надценявала данните за продажбите си пред инвеститорите, което е принудило компанията да намали прогнозите си за продажбите през март. Но това не е единственото нещо, което тя е раздувала: Когато през 2019 г. проучвах стартъпа, работниците ми казаха, че основната му технология за изграждане на приложения с изкуствен интелект се изпълнява предимно от софтуерни разработчици в Украйна и Индия.
По онова време компанията отрече това. (По-късно тя също така промени името си от Engineer.ai на Builder.ai.) Но през изминалата година редица други компании бяха набедени, че тайно използват хора на мястото на „изкуствения интелект“, което стана възможно поради предприетите мерки от Комисията по ценните книжа и фондовите борси на САЩ, Министерството на правосъдието и Федералната търговска комисия. По-малко жестокият подход е да се преувеличава колко напредничава е тяхната технология. И в двата случая клиентите и инвеститорите се хващат на стръвта, защото не извършват надлежна проверка - и защото самото определение за „изкуствен интелект“ е толкова неясно, а основите му са толкова трудни за разграничаване от нетехнически лица, че на продавачите им се разминава да поставят този етикет върху по-обикновен софтуер. Или поне биха могли.
Възможно е най-накрая да обърнем страницата на позорната глава от историята на технологиите, озаглавена „изпиране на изкуствен интелект“. От една страна, генеративният изкуствен интелект постигна конкретни постижения, които правят ненужна практиката да се използват тайни изпълнители. Една отделна фирма за изкуствен интелект, която разследвах преди пет години, например, наемаше хора, които да претърсват социалните медии, тъй като алгоритмите ѝ не можеха да се справят правилно с тази работа. Компанията им е нареждала да подписват споразумения за неразкриване на информация и да публикуват неясни титли в профилите си в LinkedIn. Днес обаче големи езикови модели могат да вършат тази работа, като само няколко човека извършват надзор, вместо да вършат по-голямата част от тежката работа.
Агресивното преследване от страна на регулаторните органи напоследък също действа възпиращо - и офанзивата ще продължи и при администрацията на Тръмп. През януари 2025 г. Комисията по ценните книжа и фондовите борси (SEC) постигна споразумение с базираната в Сан Карлос, Калифорния, компания Presto Automation Inc. за преувеличаване на възможностите на нейната технология за гласово разпознаване с „изкуствен интелект“ за американски ресторанти „drive-thru“ като Carl's Jr. и Hardee's. Компанията твърди, че нейният продукт елиминира необходимостта от приемане на поръчки от хора, докато в действителност „огромното мнозинство“ от поръчките, направени чрез нейната система, изискват намесата на хора, работещи в чужбина, твърди регулаторът. Дружеството заяви пред Bloomberg News, че е използвало работници извън страната, за да подпомогне обучението на своята система.
Много от най-успешните предприемачи в Силициевата долина използват някакъв елемент от мантрата „прави се, докато не се справиш“, но прекаленото използване на изкуствен интелект увеличава риска да бъдеш разкрит. DoNotPay е базиран в Мидвейл, Юта, стартъп, който се рекламира като „първият в света адвокат-робот“, но през септември 2024 г. Федералната търговска комисия (FTC) му наложи глоба от 193 000 долара за измамна реклама, тъй като изкуственият интелект на компанията не може да предоставя правни услуги без човешка намеса. Очакваме светлината на прожекторите да продължи да пада върху такива играчи, като Комисията по ценните книжа и фондовите борси наскоро посочи, че ще засили контрола върху начина, по който ИИ се рекламира и използва от финансовите фирми. Говорител на компанията заяви пред сайта за технологични новини Ars Technica, че жалбата „се отнася до използването на няколкостотин клиенти преди няколко години (от милиони хора) с услуги, които отдавна са преустановени“.
Известен здравословен скептицизъм е необходим и за най-големите играчи. Тази седмица Google обяви множество впечатляващи продукти, които, наред с други неща, могат да създават хиперреалистични видеоклипове на хора, които говорят и пеят. Но Google също е преминала границите на фалшификацията. През декември 2023 г. компанията пусна в YouTube видеоклип на своя водещ модел на изкуствен интелект - Gemini, в който се предполага, че той може да „говори“ и да отговаря на въпроси за дадено изображение в реално време. Когато тогава попитах Google за видеото, компанията призна, че е редактирала демонстрацията, която се е основавала на неподвижни изображения.
Възмездието за AI перачките е отдавна закъснялo, а регулаторните ограничения могат да помогнат за запазване на инвестициите в истински иновации. Но отговорността не трябва да се поема само от регулаторите. Инвеститорите и бизнес лидерите също трябва да заострят вниманието си към лицата, продаващи изкуствен интелект, за да избегнат измамите, които едва ли ще изчезнат напълно. Разбира се, може да е трудно да се извърши правилна проверка в условията на силен пазарен натиск. Едно проучване от февруари 2025 г. на независимата изследователска фирма Tech.co установи, че 58% от компаниите, които използват изкуствен интелект, го правят поради „натиск от страна на конкурентите“. Това е още една причина бизнесът да се пази от преувеличенията.
Парми Олсън е колумнист на Bloomberg, който се занимава с технологии. Бивш репортер на Wall Street Journal и Forbes, тя е автор на книгата „Превъзходство: AI, ChatGPT и надпреварата, която ще промени света.“