Най-новият „пробив“ на OpenAI е отрезвяващ сблъсък с реалността
Технологичните оценки се надуват и благодарение на хиперболите, които видяхме този уикенд, когато водещи учени от OpenAI побързаха да направят анонс, преди да проверят фактите.
21 October 2025 | 08:15
Обновен:
21 October 2025 | 08:16
Автор:
Парми Олсън
Редактор:
Емил Соколов
- Гафът на OpenAI с „решенията“ на задачи на Ердьош разкри, че моделът е копирал публикувани отговори, а не е разсъждавал.
- Големите езикови модели остават инструменти за съвпадение на шаблони, далеч от истинско общо разсъждение и AGI.
- Свръхочакванията и хиперболите надуват оценките и могат да забавят реалния напредък в AI.
Пътят на OpenAI към създаване на свръхинтелигентни машини изглежда все по-неясен.
Последният знак дойде от смущаващ гаф на водещи учени на компанията през уикенда. „GPT-5 току-що намери решения на 10 (!) досега нерешени задачи на Ердьош“, възторжено написа в X вицепрезидентът по научна дейност на OpenAI Кевин Уейл - пост, който впоследствие беше изтрит.
Гафът с „решените“ задачи на Ердьош
Оказа се, че това не е вярно. Последният модел на компанията просто е събрал отговори от интернет и ги е „повторил“ като собствени.
Много от прочутите нерешени проблеми на математика Пол Ердьош са изредени на този уебсайт, а изследователите на OpenAI са приели, че никой не е намерил отговори на задачите, които на сайта са отбелязани като „отворени“.
Но администраторът на сайта, математикът Томас Блум, отвърна в X, че просто не ги е актуализирал. GPT-5 не е решил задачите чрез първопринципно разсъждение. Алгоритъмът просто е взел решенията от публикувани научни статии, за които Блум не е знаел.
„Това е изключително погрешно представяне“, написа Блум. Уейл и други изследователи изтриха постовете си.
Съперничещи AI лаборатории се възползваха от случая, за да жегнат OpenAI: „Това е смущаващо“, написа главният изпълнителен директор на Google DeepMind Демис Хасабис. И с основание.
OpenAI отдавна внушава, че големите езикови модели, върху които стъпва ChatGPT - събират масиви от данни и ги синтезират в остроумни отговори - предлагат жизнеспособен път към изкуствен общ интелект (AGI), теоретичният праг, при който машините стават по-умни от хората.
Амбиции за AGI срещу реалността на моделите
Амбицията за AGI помогна да се изстрелят оценките на компании като OpenAI (500 млрд. долара) или Nvidia Corp., която в понеделник сутрин имаше пазарна капитализация 4,5 трилиона долара, спрямо 2,5 трилиона преди година, защото предполага бъдеще, в което машините ще могат да разсъждават и да откриват решения на трудни проблеми в бизнеса и обществото.
Но грешката с Ердьош е болезнено напомняне, че големите езикови модели, на които се крепи бума на генеративния AI, най-често само се преструват, че умеят да разсъждават. Те все още са възвишени инструменти за съвпадение на шаблони.
Разбира се, това е полезно както за потребителите, така и за бизнеса. Днес ChatGPT се използва от приблизително 10% от населението на света, а генеративните системи започват да трансформират начина, по който много фирми правят проучвания, обслужват клиенти, създават маркетингови кампании и др.
И за мнозина той почти замени Google. Но идеята, че чатбот технологията ще реши неразрешими проблеми във веригите на доставки, управлението на персонал или продуктовия дизайн, все още изглежда далечна мечта - не на последно място защото системите продължават да грешат.
Технологичните оценки се надуват и благодарение на хиперболите, които видяхме този уикенд, когато водещи учени от OpenAI побързаха да направят анонс, преди да проверят фактите. Историята показва, че свръхобещанията имат склонност да забавят напредъка, а предишните „AI зими“ бяха предизвикани от прекомерни очаквания, а не от провали.
Както съм твърдяла и преди, съществени пробиви в разсъждението вероятно ще изискват подходи към машинното обучение, които не са толкова модерни като генеративния AI - например невросимволичен изкуствен интелект.
Истинското разсъждение, което бута напред научната граница, не бива да се бърка със способността на ChatGPT да ремиксира наличното знание - особено не от собствените изследователи на компанията.
Последици за бума на AI и очакванията на Силициевата долина
Но не очаквайте това да спре Силициевата долина да ни уверява, че свръхинтелигентността е „зад ъгъла“, нито да възпре AI бума да се движи толкова от вяра, колкото и от истински пробиви.
Парми Олсън е колумнист на Bloomberg, който се занимава с технологии. Бивш репортер на Wall Street Journal и Forbes, тя е автор на книгата „Превъзходство: AI, ChatGPT и надпреварата, която ще промени света.“