- Основателят на Wikipedia обяви, че не се тревожи от евентуалната заплаха за безплатната онлайн енциклопедия, която може да представлява съдържанието генерирано от изкуствен интелект
- Сред проблемите с изхода на големи езикови модели, сред които ChatGPT на OpenAI и Gemini на Alphabet, е високата чистота, с която те все още генерират халюцинации или грешна и подвеждаща информация
-
Хората са обсебени. Този вид човешки контекст на разбиране всъщност е доста важен, когато говорим за истински разбиране, както за това, което читателят иска и това, от което се нуждае в момента.,
Основателят на Wikipedia обяви, че не се тревожи от евентуалната заплаха за безплатната онлайн енциклопедия, която може да представлява съдържанието генерирано от изкуствен интелект. В това число влиза и съдържанието, генерирано от Grokipedia на Илон Мъск, поради това колко податлива е информацията на грешки.
В момента AI не е конкуренция за интернет енциклопедията
„Защо посещаваме Wikipedia? Влизаме в съдържанието там, защото знаем, че е информация, проверена от знаещи хора“, обяви Джими Уелс, който основа интернет енциклопедията, чието съдържание се формира от доброволци.
„Реално не си и помисляме да позволим на изкуствен интелект да пише статии за сайта, защото знаем колко неправилни могат да са. Реално не виждам проблем в това“, добави Уелс.
Сред проблемите с изхода на големи езикови модели, сред които ChatGPT на OpenAI и Gemini на Alphabet, е високата чистота, с която те все още генерират халюцинации или грешна и подвеждаща информация.
Поради тази причина експертът не се притеснява от конкуренцията на сайтове като Grokipedia, която беше стартирана през миналата година от изкуствения интелект на Илон Мъск, определяйки я като анимационна енциклопедия.
Още по темата
Грешните на изкуствения интелект, когато предлага информация
Уелс говори през седмицата в кулоарите на India AI Impact Summit в Ню Делхи. Говорим за събитие, което привлече няколко държавни глави и представители на водещите иновационни компании в света.
Всъщност разказва, че халюцинациите, свързани с изкуствен интелект стават по-фрапантни и срещани, защото темите стават неясни или нишови. Важното при генерираните от хора статии е, че те се възползват от приноса на експерти по темата, което помага да се предпазят от неточности и доставя информирани статии.
„Хората са обсебени. Този вид човешки контекст на разбиране всъщност е доста важен, когато говорим за истински разбиране, както за това, което читателят иска и това, от което се нуждае в момента.,
Всъщност проучване за халюцинациите на OpenAI от 2025 година установява, че все още са често срещани, дори в напреднали модели. Техният процент достига 79 в някои текстове.
„Проблемът с тези халюцинации става голям, когато говорим за нишови или неясни теми. В области, в които вероятно си мислите, че може да се нуждаете от помощ, говорим за доста спорни статии“, обяви Уелс на събитието.