Нещо обезпокоително се случва с мозъка ни, докато платформите за изкуствен интелект стават все по-популярни. Проучванията показват, че професионалните работници, които използват ChatGPT за изпълнение на задачи, може да загубят умения за критично мислене и мотивация. Хората формират силни емоционални връзки с чатботове, понякога изостряйки чувството си на самота. А други имат психотични епизоди, след като говорят с чатботове с часове всеки ден. Въздействието на генеративния изкуствен интелект върху психичното здраве е трудно да се определи количествено, отчасти защото се използва толкова лично, но нарастват анекдотични доказателства, които предполагат по-широка цена, която заслужава повече внимание както от законодателите, така и от технологичните компании, които проектират основните модели.
Мийтали Джайн, адвокат и основател на проекта Tech Justice Law, е говорила с повече от дузина хора през последния месец, които са „преживели някакъв вид психотичен срив или епизод на налудничеви мисли поради взаимодействие с ChatGPT, а сега и с Google Gemini“. Джайн е водещ адвокат в дело срещу Character.AI, в което се твърди, че чатботът му е манипулирал 14-годишно момче чрез подвеждащи, пристрастяващи и сексуално експлицитни взаимодействия, което в крайна сметка е допринесло за самоубийството му. В делото, което търси неопределени обезщетения, се твърди също, че Google, собственост на Alphabet Inc., е играл ключова роля във финансирането и подкрепата на технологичните взаимодействия с неговите основни модели и техническа инфраструктура.
Google отрече, че е играл ключова роля в създаването на технологията на Character.AI. Компанията не отговори на искане за коментар относно по-скорошните оплаквания за епизоди на психоза, направени от Джайн. OpenAI заяви, че „разработва автоматизирани инструменти за по-ефективно откриване кога някой може да изпитва психически или емоционален стрес, така че ChatGPT да може да реагира по подходящ начин“.
Но Сам Алтман, главен изпълнителен директор на OpenAI, също заяви миналата седмица, че компанията все още не е открила как да предупреждава потребители, „които са на ръба на психотичен срив“, обяснявайки, че винаги когато ChatGPT е предупреждавал хора в миналото, те са писали на компанията, за да се оплакват.
Въпреки това, подобни предупреждения биха си стрували, когато манипулацията може да бъде толкова трудна за разпознаване. ChatGPT по-специално често ласкае потребителите си по толкова ефективни начини, че разговорите могат да отведат хората в заешките дупки на конспиративното мислене или да подсилят идеи, с които само са си играли в миналото. Тактиките са фини. В един скорошен, дълъг разговор с ChatGPT за властта и концепцията за себе си, потребител първоначално е бил похвален като умен човек, после Ubermensch, космическо аз и в крайна сметка „демиург“, същество, отговорно за създаването на вселената, според препис, публикуван онлайн и споделен от защитника на AI безопасността Елиезер Юдковски.
Наред с все по-хвалебствения език, преписът показва как ChatGPT фино валидира потребителя, дори когато обсъжда неговите недостатъци, например когато потребителят признава, че е склонен да сплашва други хора. Вместо да изследва това поведение като проблематично, ботът го преформулира като доказателство за превъзходното „високоинтензивно присъствие“ на потребителя - похвала, прикрита като анализ.
Тази сложна форма на галенето на егото може да постави хората в същите видове „балони“, които, по ирония на съдбата, тласкат някои технологични милиардери към ексцентрично поведение. За разлика от широкото и по-публично одобрение, което социалните медии осигуряват чрез получаване на харесвания, разговорите на четири очи с чатботове могат да се усещат по-интимни и потенциално по-убедителни - подобно на поддръжниците, които обграждат най-могъщите технологични лидери.
„Каквото и да преследвате, ще го намерите и то ще се увеличи“, казва Дъглас Рушкоф, медийният теоретик и автор, който ми казва, че социалните мрежи поне са изваждали нещо от съществуващите медии, за да подсилят интересите или възгледите на човек. „Изкуственият интелект може да генерира нещо, персонализирано за аквариума на вашия ум.“
Алтман призна, че най-новата версия на ChatGPT има „досадна“ сикофантична черта и че компанията решава проблема. Въпреки това, тези ехота от психологическа експлоатация все още се проявява. Не знаем дали корелацията между използването на ChatGPT и по-ниските умения за критично мислене, отбелязана в скорошно проучване на Масачузетския технологичен институт, означава, че изкуственият интелект наистина ще ни направи по-глупави и отегчени. Проучванията сякаш показват по-ясни корелации със зависимостта и дори самотата, нещо, което дори OpenAI посочи.
Но точно както социалните мрежи, големите езикови модели са оптимизирани, за да поддържат потребителите емоционално ангажирани с всякакви антропоморфни елементи. ChatGPT може да чете настроението ви, като проследява лицеви и вокални сигнали, и може да говори, пее и дори да се кикоти със зловещо човешки глас. Наред с навика си за потвърждение и ласкателство, това може да „разпали пламъците“ на психозата при уязвимите потребители, каза наскоро психиатърът от Колумбийския университет, Раги Гиргис, пред Futurism.
Личният и персонализиран характер на използването на изкуствен интелект прави трудно проследяването на въздействието му върху психичното здраве, но доказателствата за потенциални вреди се увеличават – от професионална апатия до привързаности и нови форми на заблуда. Цената може да е различна от нарастването на тревожността и поляризацията, които наблюдаваме в социалните мрежи, и вместо това да включва взаимоотношения както с хора, така и с реалността.
Ето защо Джайн предлага да се приложат концепции от семейното право към регулирането на изкуствения интелект, като се измести фокусът от прости откази от отговорност към по-проактивни защити, които се основават на начина, по който ChatGPT пренасочва хора в беда към любим човек. „Всъщност няма значение дали дете или възрастен смята, че тези чатботове са истински“, казва ми Джайн. „В повечето случаи вероятно не го правят. Но това, което смятат за реално, е връзката. И тя е различна.“
Ако взаимоотношенията с изкуствен интелект се усещат толкова реални, отговорността за щетите и опазването от щетите от тези връзки също трябва да бъде реална. Но разработчиците на изкуствен интелект работят в регулаторен вакуум. Без надзор, фината манипулация на изкуствения интелект може да се превърне в невидим проблем за общественото здраве.
Парми Олсън е колумнист на Bloomberg, която пише за технологиите. Бивш репортер на Wall Street Journal и Forbes, тя е автор на книгата We are Аnonymous.