fallback

Опасностите от предоставянето на повече памет на ChatGPT

Новата функция на OpenAI да помни чатове може да направи клиентите ѝ по-ангажирани, което ще бъде от полза за бизнеса, но и да съживи някои негативи от социалните мрежи

09:00 | 16 февруари 2024
Автор: Парми Олсън

OpenAI въвежда функция за памет в ChatGPT. Според OpenAI популярният чатбот ще може да съхранява ключови детайли за своите потребители, за да направи отговорите по-персонализирани и "по-полезни". Това могат да бъдат факти за вашето семейство или здраве, или предпочитания за начина, по който искате ChatGPT да разговаря с вас, така че вместо да започне с празна страница, да бъде въоръжен с полезен контекст. Както и при много други технологични иновации, това, което звучи авангардно и полезно, има и тъмна страна: то може да пробие още една дупка в дигиталната ни неприкосновеност и - само може би - да ни тласне още по-навътре в ехокамерите, които социалните медии създадоха.

Фирмите за изкуствен интелект от години търсят нови начини за увеличаване на "паметта" на чатботовете, за да ги направят по-полезни. Те също така следват пътна карта, която работи за Facebook, като събират лична информация, за да насочват по-добре потребителите към съдържание, което да ги кара да продължават да скролват.

Новата функция на OpenAI, която се разпространява както сред платените абонати, така и сред безплатните потребители, може да направи клиентите ѝ по-ангажирани, което ще бъде от полза за бизнеса. Понастоящем потребителите на ChatGPT прекарват средно по седем минути и половина на посещение в услугата, според данни на фирмата за пазарни проучвания SimilarWeb. Това я прави една от най-привързаните услуги с изкуствен интелект, но този показател може да се повиши. Времето, прекарано в YouTube, например, е 20 минути за всяко посещение. Като обработва и запазва повече лична информация, OpenAI може да увеличи тези показатели за привързаност и да изпревари конкурентните чатботове на Microsoft, Anthropic и Perplexity.

Но има и тревожни странични ефекти. OpenAI заявява, че потребителите ще "контролират паметта на ChatGPT", но също така, че ботът може "сам да подбира детайли". С други думи, ChatGPT може да избере да запомни определени факти, които смята за важни. Клиентите могат да влязат в менюто с настройки на ChatGPT и да изключат всичко, което искат чатботът да забрави, или да изключат изцяло функцията за памет. "Паметта" ще бъде включена по подразбиране, което поставя върху потребителите отговорността да изключат нещата.

Събирането на данни по подразбиране е практика от години във Facebook, а разширяването на "паметта" може да се превърне в минно поле за защита на личните данни в изкуствения интелект, ако други компании последват примера на OpenAI. OpenAI твърди, че използва само данни на хора, за да обучава моделите си, но други създатели на чатботове могат да бъдат много по-свободни. Според фондация Mozilla, организация с нестопанска цел, която насърчава прозрачността в интернет, неотдавнашно проучване на 11 чатбота с романтични функции показва, че почти всички от тях са заявили, че могат да споделят лични данни с рекламодатели и други трети страни, включително подробности за сексуалното здраве на хората и употребата на лекарства.

Това е още една непредвидена последица, която има отзвук във Facebook: по-персонализираният ChatGPT, който е внимателен към паметта, може да засили филтърните балони, в които хората се намират благодарение на социалните канали, които от години ги хранят с постоянно съдържание, потвърждаващо техните културни и политически пристрастия.

Представете си, че ChatGPT запише в своята паметна банка, че подкрепям определена политическа партия. Ако след това попитам чатбота защо нейните политики са по-добри за икономиката, той може да даде приоритет на информацията, която подкрепя партийната линия, и да пропусне критичния анализ на тези политики, изолирайки ме от жизнеспособни контрааргументи.

Ако кажа на ChatGPT да запомни, че съм силен привърженик на екологичната устойчивост, бъдещите ми запитвания за възобновяеми енергийни източници може да получат отговори, в които да се пропусне да се спомене, че изкопаемите горива понякога са жизнеспособни. Това би ме оставило с по-ограничен поглед върху енергийния дебат.

OpenAI би могла да се справи с този проблем, като се увери, че ChatGPT предлага разнообразни гледни точки по политически или социални въпроси, дори ако те оспорват предразсъдъците на потребителя. Тя би могла да добави подкани за критично мислене, за да насърчи потребителите да разгледат перспективите, които все още не са изразили. А в интерес на прозрачността би могъл също така да информира потребителите кога им предоставя персонализирана информация. Това би могло да влоши показателите за ангажираност, но би било по-отговорно.

ChatGPT бележи огромен ръст, стреми се към ангажираност на потребителите и вече съхранява лична информация, поради което пътят ѝ почти прилича на този на Марк Зукърбърг, който някога е вървял със също толкова благородни намерения. За да избегне същите токсични странични ефекти, които неговите приложения имаха върху психичното здраве и обществото, OpenAI трябва да направи всичко възможно, за да спре своя софтуер да поставя хората във все по-дълбоки силози. Самата идея за критично мислене може да се превърне в опасна новост за хората.

Парми Олсън е колумнист на Bloomberg, който пише мнения за технологиите. Бивш репортер на Wall Street Journal и Forbes, тя е автор на книгата "Ние сме анонимни".

fallback
fallback