Защо чатботовете бълват глупости?

Част от това, което тези програми казват, е вярно, но само като страничен продукт от стремежа им да изглеждат правдоподобни

19:00 | 10 февруари 2023
Автор: Николета Рилска
Снимка: Gabby Jones/Bloomberg
Снимка: Gabby Jones/Bloomberg

Много неща са се промениха от 1986 г., когато философът от Университета в Принстън Хари Франкфурт публикува есе в списание Raritan, озаглавено „За глупостите“. И все пак есето, преиздадено по-късно като отделна книга, остава обезпокоително актуално. Брилянтното прозрение на Франкфурт е, че глупостите са извън царството на истината и лъжите. Лъжецът се интересува от истината и иска да я замъгли. Един глупак е безразличен към това дали твърденията му са верни: „той просто ги избира или си ги измисля, за да отговарят на целта му“, пише Франкфурт.

Типично за писател от XX век, той описва глупака като „той“, а не като „тя“ или „те“. Но сега, когато вече сме навлезли в 2023 г., може да се наложи да наричаме глупака „това“ — защото ново поколение чатботове са готови да генерират глупости в нечуван мащаб, пише Financial Times.

Дейвид Смердън, икономист от Университета в Куинсленд, пита популярния чатбот ChatGPT: „Кой е най-цитираният икономически документ на всички времена?“ ChatGPT отвръща, че това е „Теория на икономическата история“ от Дъглас Норт и Робърт Томас, публикувана в Journal of Economic History през 1969 г. и цитирана повече от 30 хиляди пъти оттогава. Чатботът добавя, че статията се „смята за класика в областта на икономическата история“. Добър отговор в някои отношения. В други отношения това не е добър отговор, защото такъв документ не съществува.

Защо ChatGPT е измислил тази статия? Смердън спекулира по следния начин: в най-цитираните икономически статии често присъстват думите „теория“ и „икономически“; ако една статия започва с „икономическа теория . . . " тогава " . . . история” е вероятното ѝ продължение.

Дъглас Норт, Нобелов лауреат, е широко цитиран икономически историк и той пише книга с Робърт Томас. С други думи, цитатът е великолепно правдоподобен.

Това, с което се занимава ChatGPT не е истина; това е правдоподобност. И как би могло да бъде иначе? ChatGPT няма модел за света. Вместо това има модел за нещата, които хората са склонни да пишат. Това обяснява защо звучи толкова удивително правдоподобно. Той също така обяснява защо чатботът може да се сблъска със сериозно предизвикателство, когато предоставя точни отговори на някои доста ясни въпроси.

Но това не е проблем само за ChatGPT. Чатботът Galactica на Meta се сдоби с лоша слава с изобретяването на цитати. И тук не става въпрос само за документи по икономика. Наскоро ChatGPT написа интересна история за победата на Джули Литкот-Хеймс при избирането ѝ за член на градския съвет на Пало Алто. „Беше толкова правилно и беше добре написано“, споделя тя. Но Литкот-Хеймс е чернокожа и ChatGPT писа за това как тя е първата чернокожа жена, избрана в градския съвет. Напълно правдоподобно, напълно невярно.

Гари Маркъс, автор на Rebooting AI, обяснява действията на чатбота: „Всичко, което произвежда, звучи правдоподобно, защото всичко е извлечено от неща, казани от хората. Но не винаги познава връзките между нещата, които сглобява.

ChatGPT постигна забележителен напредък за много кратко време. Може би следващото поколение, след година-две, няма да има такъв проблем. Маркъс обаче не мисли така. Той твърди, че псевдофактите няма да изчезнат без фундаментално преосмисляне на начина, по който са изградени тези системи с изкуствен интелект.

Едно нещо е достатъчно ясно: в света има голямо търсене на глупости и ако те са достатъчно евтини, ще се доставят в огромни количества. Светът трябва да помисли колко по-трудно ще бъде, когато онлайн пространството се изпълни с интересен текст, който никой никога не е писал, или очарователни снимки на хора и места, които не съществуват. Ами „фалшивите новини“?

Проблемът с невярната информация се разглежда от Financial Times още от 2016 г., малко преди референдума за Brexit и победата на Доналд Тръмп на президентските избори в САЩ. Тогава нещата бяха зле, сега са плачевни. След като Тръмп беше предизвикан от Fox News заради неговите туитове относно някакво невярно твърдение, той отговори: „хей, Бил, Бил, ще проверя ли всяка статистика?“ ChatGPT може да каже същото.

Ако държите да сте прави, тогава да, трябва да проверите. Но ако ви интересува единствено да бъдете забелязани, да ви се възхищават или да ви вярват, тогава истината остава на заден план. ChatGPT казва много верни неща, но ги казва само като страничен продукт от това старанието си да изглежда правдоподобен.

Чатботовете направиха огромен скок в развитието си през последните няколко години, но дори недодяланите чатботове на XX век бяха напълно способни да привлекат човешкото внимание. MGonz премина теста на Тюринг през 1989 г., като изстреля поток от обиди към случаен човек, който също изстреля поток от обиди в отговор.

ELIZA, най-известният чатбот от онова първо поколение, очарова хората, като се преструва че изслуша техните проблеми. „Разкажи ми повече“, пишеше машината, питайки: „Защо се чувстваш така?“. Тези прости чатботове направиха достатъчно, за да постигнат едно ниво с хората при разговор.

Това трябва да е предупреждение да не позволяваме на чатботовете да избират правилата за ангажиране. Хари Франкфурт предупреждава, че глупакът не се противопоставя на истината, а „изобщо не ѝ обръща внимание. По силата на това твърдение глупостите са по-голям враг на истината от лъжите”.