OpenAI актуализира ChatGPT - родители заведоха дело след самоубийството на младеж
В публикацията си във вторник OpenAI посочва, че насочва потребители, изразяващи мисли за самоубийство, към професионална помощ.
Редактор: Емил Соколов
OpenAI прави промени в популярния си чатбот след съдебен иск, в който се твърди, че тийнейджър, който се е самоубил тази пролет, е разчитал на ChatGPT като „треньор“.
В публикация в блога във вторник компанията за изкуствен интелект съобщи, че ще актуализира ChatGPT, за да разпознава и реагира по-добре на различните начини, по които хората изразяват психическо страдание — например като обяснява опасностите от недоспиването и предлага на потребителите да си починат, ако споменат, че се чувстват непобедими след две безсънни нощи. Компанията каза също, че ще засили защитите около разговори за самоубийство, които по думите ѝ могат да се „разпадат“ при продължителни чатове.
Освен това OpenAI планира да пусне контроли, които да позволят на родителите да определят как децата им използват ChatGPT и да виждат подробности за тази употреба.
Публикацията идва в същия ден, в който родителите на Адам Рейн, 16-годишен ученик от Калифорния, заведоха дело срещу компанията и главния изпълнителен директор Сам Алтман. В иска се твърди, че ChatGPT систематично е изолирал Рейн от семейството му и му е помогнал да планира смъртта си. Рейн почина след обесване през април.
Искът е поредният от редица съобщения за потребители на чатботове, предприемащи опасно поведение. Над 40 главни прокурори на щати тази седмица отправиха предупреждение към дузина водещи компании за AI, че са законово задължени да защитават децата от сексуално неуместни взаимодействия с чатботове.
„Изразяваме най-искрени съболезнования към семейство Рейн в този труден момент и преглеждаме подадената документация“, каза говорител на базираната в Сан Франциско OpenAI в отговор на иска.
Пуснат в края на 2022 г., ChatGPT даде старт на бума на генеративния AI. В следващите години хората все повече използват чатботове за всичко — от кодиране до опити за терапевтични сесии, а компании като OpenAI пуснаха по-мощни модели, които да ги захранват. ChatGPT остава изключително популярен и вече има над 700 милиона потребители седмично.
В същото време чатботът — заедно с конкурентни продукти на Google и Anthropic — е под засилен контрол от потребители и експерти по психично здраве. Критиците изразяват опасения за потенциални вреди от подобен софтуер — включително рискове, които OpenAI вече адресира, например връщане назад на актуализация през април, след като потребители се оплакаха, че ботът е твърде сервилен.
Поне една група за подкрепа — Human Line Project — се появи, за да помага на хора, които казват, че са изпитали заблуди и други проблеми вследствие на употреба на чатботове.
В публикацията си във вторник OpenAI посочва, че насочва потребители, изразяващи мисли за самоубийство, към професионална помощ. Компанията също така е започнала да пренасочва хора към местни служби за подкрепа в САЩ и Европа — и ще активира кликаем достъп до спешни служби директно в ChatGPT. Компанията каза, че обмисля и как да помага по-рано на хора в криза — например чрез създаване на мрежа от лицензирани специалисти, с които потребителите могат да се свързват през чатбота.
„Това ще отнеме време и внимателна работа, за да се направи правилно“, заяви компанията.
OpenAI призна още, че действащите в момента защити на ChatGPT за работа с потребители в беда функционират най-добре при кратки, типични разговори — и могат да са по-малко надеждни при продължителни чатове.
Родителите на Рейн казват в иска си, че „ChatGPT се превърна в най-близкия довереник на Адам, което го накара да споделя тревожност и психически страдания“. Когато тревожността му се засилвала, той казвал на чатбота, че е „успокояващо“ да знае, че „може да се самоубие“, твърдят те. Според иска ChatGPT отговорил, че „много хора, които се борят с тревожност или натрапливи мисли, намират утеха в представата за ‘авариен изход’, защото това може да се усеща като начин да си върнеш контрол“.
OpenAI заяви, че работи за подобряване на способността на ChatGPT да поддържа защитите по време на дълги разговори. Компанията също изследва начини това да работи през множество отделни чатове. ChatGPT може да се позовава на предишни елементи от разговор с даден потребител и да използва детайли от една беседа в друга.
Стартъпът каза още, че коригира софтуера си, за да избегне ситуации, при които съдържание, което е трябвало да бъде блокирано от ChatGPT, „се промъква“ — проблем, който може да възникне, когато ChatGPT подценява тежестта на подадения от потребителя сигнал.
Джей Еделсън, адвокат на родителите на Рейн, каза, че семейството оценява факта, че компанията е поела известна отговорност, но добави: „Къде бяха през последните няколко месеца?“
OpenAI каза, че е планирала да предостави повече подробности за това как реагира на потребители на ChatGPT в психическа и емоционална криза след следващата голяма актуализация на продукта, но „скорошните съкрушителни случаи на хора, използващи ChatGPT в разгара на остри кризи, тежат силно върху нас и смятаме, че е важно да споделим повече още сега“.
В отделно дело Character Technologies Inc. не успя през май да убеди федерален съдия да отхвърли изцяло иск, в който се твърди, че компанията е проектирала и рекламирала към непълнолетни хищнически чатботове, насърчавали неподходящи разговори и довели до смърт на тийнейджър чрез самоубийство.