Приложенията с изкуствен интелект (AI), програмирани да създават емоционални връзки, вече не се ограничават само до филмовите сценарии. Те са тук и действат в регулаторния Див запад.
Едно от приложенията, Botify AI, неотдавна попадна в медийното пространство заради това, че в чатовете със сексуален заряд се появяват аватари на млади актьори, които си споделят "горещи снимки". Междувременно приложението за запознанства Grindr разработва гаджета с изкуствен интелект, които могат да флиртуват, да изпращат съобщения със сексуален контекст и да поддържат цифрови взаимоотношения с платени потребители, според Platformer, бюлетин на технологичната индустрия. Grindr не отговори на молбата за коментар. И други приложения като Replika, Talkie и Chai са проектирани да функционират като приятели. Някои от тях, като Character.ai, привличат милиони потребители, много от които са тийнейджъри.
Тъй като създателите на приложения все повече отдават приоритет на „емоционалната ангажираност“ в своите приложения, те трябва да се справят и с рисковете от създаването на системи, които имитират интимност и се възползват от уязвимостта на хората.
Технологията, която стои зад Botify и Grindr, идва от Ex-Human, базиран в Сан Франциско стартъп, който изгражда платформи за чатботове, и неговият основател вярва в бъдеще, изпълнено с връзки с изкуствен интелект.
„Моята прогноза е, че до 2030 г. взаимодействията ни с дигитални хора ще станат по-чести от тези с реални хора“, казва Артьом Родичев, основател на Ex-Human, в интервю, публикувано в Substack през август миналата година.
Той е добавил, че разговорният AI трябва да „дава приоритет на емоционалната ангажираност“ и че потребителите прекарват „часове“ с неговите чатботове, по-дълго, отколкото в Instagram, YouTube и TikTok. Твърденията на Родичев звучат невероятно, но те съответстват на интервютата, които проведох с тийнейджъри потребители на Character.ai, повечето от които казаха, че са в него по няколко часа всеки ден. Един от тях каза, че го използва по седем часа на ден. Взаимодействията с такива приложения обикновено продължават четири пъти по-дълго от средното време, прекарано в ChatGPT на OpenAI.
Дори масовите чатботове, макар и да не са изрично разработени като спътници, допринасят за тази динамика. Вземете ChatGPT, който има 400 милиона активни потребители и продължава да брои. Програмата му включва насоки за емпатия и демонстриране на „любопитство към потребителя“. Приятел, който наскоро поискал от него съвети за пътуване с бебе, бил изненадан, когато, след като му дал съвет, инструментът небрежно е добавил: „Лек път - къде отивате, ако не възразявате да попитам?“
Говорител на OpenAI ми каза, че моделът е следвал насоките за „показване на интерес и задаване на последващи въпроси, когато разговорът има по-непринуден и проучвателен характер“. Но колкото и добронамерена да е компанията, натрупването на фиктивна съпричастност може да накара някои потребители да се пристрастят - проблем, който дори OpenAI признава. Това изглежда се отнася за тези, които вече са податливи: Едно проучване от 2022 г. установи, че хората, които са били самотни или са имали неуспешни връзки, са склонни да се привързват най-силно към AI.
Основният проблем тук е разработката, която цели привързаност. Неотдавнашно проучване на изследователи от Оксфордския интернет институт и Google DeepMind предупреди, че с все по-дълбоко интегриране на AI асистентите в живота на хората те ще станат психологически „незаменими“. Хората вероятно ще създават по-силни връзки, което поражда опасения за нездрави отношения и потенциал за манипулация. Тяхната препоръка? Технолозите трябва да проектират системи, които активно да възпрепятстват такива резултати.
Обезпокоителен е фактът, че наръчникът с правила до голяма степен е празен. Законът за изкуствения интелект на Европейския съюз, обявен за исторически и всеобхватен закон, регулиращ използването на изкуствен интелект, не разглежда потенциала за пристрастяване на тези виртуални спътници. Макар да забранява манипулативните тактики, които могат да причинят явна вреда, той не отчита постепенното засилване на влиянието, което един чатбот, създаден да бъде вашият най-добър приятел, любовник или „довереник“ има, както казва ръководителят на отдела за комуникации в Microsoft Corp. ръководител на потребителския AI. Този пропуск може да остави потребителите уязвими на системи, които са оптимизирани за пристрастяване, по същия начин, по който алгоритмите на социалните медии са оптимизирани да ни карат да скролваме.
„Проблемът остава, че тези системи по дефиниция са манипулативни, защото се очаква да ви накарат да се чувствате така, сякаш говорите с истински човек“, казва Томаш Холанек, специалист по технологична етика в университета в Кеймбридж. Той работи с разработчиците на приложения за емоционални спътници, за да намери критично, но контраинтуитивно решение чрез добавяне на повече „търкане“. Това означава вграждане на фини проверки или паузи, или начини за „маркиране на рисковете и получаване на съгласие“, казва той, за да се предотврати попадането на хората в емоционална заешка дупка, без да го осъзнават.
Правни жалби хвърлят светлина върху някои от реалните последици. Срещу Character.AI е заведено съдебно дело от майка, която твърди, че приложението е допринесло за самоубийството на нейния син тийнейджър. Групи за етика в технологичния сектор са подали жалба срещу Replika до Федералната търговска комисия на САЩ, твърдейки, че чатботовете ѝ предизвикват психологическа зависимост и водят до „вреда за потребителите“.
Законотворците също постепенно започват да забелязват проблема. Калифорния обмисля законодателство, което да забрани използването на AI спътници от непълнолетни, а нюйоркски законопроект има за цел да държи технологичните компании отговорни за вреди, свързани с чатботове. Но процесът е бавен, докато технологията се развива със светкавична скорост.
Засега правомощията за оформяне на тези взаимодействия са в ръцете на разработчиците. Те могат да положат повече усилия за създаване на модели, които да държат хората в напрежение, или да вградят триене в дизайна си, както предлага Холанек. Това ще определи дали изкуственият интелект ще се превърне по-скоро в инструмент за подпомагане на благосъстоянието на хората или в инструмент, който осребрява нашите емоционални нужди.
Парми Олсън е колумнист на Bloomberg, който се занимава с технологии. Бивш репортер на Wall Street Journal и Forbes, тя е автор на книгата "Превъзходство: „Превъзходство“: „AI, ChatGPT и надпреварата, която ще промени света“.