Изкуственият общ интелект, мислещите машини и хората - ще ни тласне ли AGI към вселената на "Дюн"

Материал на Антонио Костадинов

13 November 2025 | 15:50
Обновен: 13 November 2025 | 15:50
Снимка: Bloomberg LP
Снимка: Bloomberg LP

„Не създавай машина по подобие на човешкия ум”. Феновете на поредицата на „Дюн” на Франк Хърбърт ще се досетят за тази сентенция, която е в основата на т.нар. „Бътлеров джихад” в научнофантастичната поредица - бунтът на последните свободни хора срещу мислещите машини и изкуствения интелект, който именно оформя социално-политическия контекст изобщо във вселената на книгите на „Дюн”. След този бунт, разглеждан като „свещена война на човешкия дух срещу машините”, забранената технология включва всяко устройство, което може да мисли, да се аргументира и да симулира човешката интелигентност - тоест изкуствен интелект и „съзнателни” роботи. Забранени са и компютрите, способни на автономно разсъждаване. Вместо това са позволени механични устройства и автоматизация, която не подражава на човешкия ум; космическите кораби се управляват от хора навигатори, а на мястото на компютрите има „ментати” - човешки същества с невероятна способност за комплексни изчисления и анализи.

„Бътлеровият джихад” и повелята „Не създавай машина по подобие на човешкия ум” беше първата асоциация в ума ми, когато прочетох доклада на DeepMind, част от Alphabet (компанията-майка на търсачката Google), публикуван в началото на април. С внушителния си обем от 145 страници, в него подробно са разписани рисковете от развиването на изкуствен общ интелект (AGI).

Авторите на техническия доклад посочват четири възможни типа рискове, свързани с AGI и дават предложения как можем да смекчим тези опасности. Екипът на DeepMind, ръководен от съоснователя на компанията Шейн Лег, категоризира отрицателните резултати от AGI като злоупотреба, несъответствие, грешки и структурни рискове. Авторите на доклада разглеждат поотделно тези категории, макар и фокусът да пада върху първите две групи, докато последните са бегло засегнати.

При злоупотребата виждаме нещо, което по същество прилича на рисковете при изкуствения интелект, които познаваме в момента. В този случай играе директно човешкият фактор - ако злонамерен човек или организация с достъп до AGI инструктира умишлено системата за нанасяне на вреди. Това може да бъде дезинформация или зловредна информация, в разрез с инструкциите и намерението на разработчика. Това е най-явната и фундаментална заплаха, тъй като я виждаме под някаква форма - и в зависимост в кой информационен „балон” сте, тази заплаха може да действа срещу вашите приятели, познати и семейство.

Например, „фабриките за тролове”, концепция, въведена от финландската журналистика Йесика Аро в разследването си за печално известните тролски фабрики в Русия, ангажирани като обикновени работници да създават фалшиви новини, пропаганда и неточна информация с цел подкопаване на доверието на западните общества към статуквото.

Почти десет години по-късно, тези фабрики за тролове до голяма степен са надградени от алгоритми и изкуствен интелект. Досега социалните мрежи, включително Фейсбук, се бореха с премахването на свързани със злонамерени играчи фалшиви профили и страници, свързани с различни центрове - като Москва, Техеран и дори Пекин. Сега чатботовете и генеративният изкуствен интелект надградиха възможностите за създаване на подвеждащо и невярно съдържание, засилване на пропагандните наративи на даден международен играч (например Кремъл по отношение на Запада и Украйна).

Освен генериране на фалшиви новини с текстово съдържание, възможностите за създаване на изображения с AI също влизат в действие и се разпространяват в социалните мрежи безпрепятствено, което увеличава замърсяването на информационната среда, която така или иначе е претоварена. При злоутребата с AGI обаче е възможно е да видим как злонамерен играч използва изкуствения интелект за кибератаки и създаване на дизайнерски вируси срещу критична инфраструктура, които да експлоатират уязвимостите от нулев ден (уязвимости в даден софтуер или критична инфраструктура, които не са адресирани от разработчиците поради незнание за тяхното съществуване или които са били открити съвсем наскоро).

При втората категория заплаха - несъотвествие, тук рисковете са много по-големи при AGI, отколкото при сегашния генеративен изкуствен интелект. В този сценарий AGI се превръща в една неконтролируема машина, която е преодоляла ограниченията, заложени от нейните създатели. В този случай алгоритъмът например знае, че дадена информация, която дава, е некоректна и зловредна, като човешкият оператор не е уведомен за това. От DeepMind дават пример - AI модел, който е инструктиран да резервира билети за филм в киносалон, но AGI алгоритъмът решава да “хакне” билетната система и да запази места, които вече са заети.

Предизвикателството при несъответствието обаче е „лъжливото” несъотстветствие - когато системата осъзнае, че резултатите не са съвместими с човешките инструкции (и имплицитните етични ценности, заложени в самия код и отразяват намеренията на разработчиците) и бариерите, заложени в кода, които да предотвратяват злоупотреба и злонамерени действия. Според DeepMind, това може да се минимизира като риск чрез трениране на AI модел, който да действа в ролята на мониторингов инструмент, но проблемът е въз основа на какво може да бъде до толкова изтрениран и обучен модел, който да знае кога дадено действие е безопасно. Тук ключът е, според DeepMind, да се вгради код, който инструктира AI мониторът, който следи за несъответствие при AGI модела, да знае как да действа, когато не може да оцени дадено действие на изкуствения общ интелект и вместо това или да го откаже, или да го маркира за допълнителен преглед и анализ от човешки фактор.

Другата категория - грешки, е много често срещана и абсолютно нормален феномен. Една от целите на автоматизацията и на изкуственият интелект е именно да се намалят човешките грешки в процесите, което на практика може да има много широко приложение. След навлизането на ChatGPT и на други чатботове навлезе терминът „халюцинации” относно измислени от даден чатбот факти или невярна информация, представена като факт.

Стандартните инженерни практики при такива комплексни системи - каквито са например по-сериозното тестване и QA (от английски - контрол на качеството), може драстично да намалят тези грешки. Прави впечатление обаче, че DeepMind, макар и да не разглеждат подробно темата с грешките, тъй като тази категория е възможно „най-конвенционалната”, призовават освен за подобряване и усъвършенстване на възможностите на самия изкуствен интелект, да не се използва в ситуации с „изключително висок риск”, както и да се използват механизми, които да гарантират безопасността на този изкуствен интелект.

Това са само общи насоки в доклада на DeepMind, като те основно обръщат внимание на

първите две рискови категории - злоупотреба и несъотствие. Последната категория, озаглавена структурни рискове, също не е предмет на изследване в този документ от 144 страници. За структурните рискове единствено е заявено, че има „злоупотреби от множество играчи и динамики - включително хора, организации и AI системи” и които не могат да се предотвратят само с промяната на поведението на даден човек, настройване на дадена система или системите на безопасност на даден алгоритъм. От DeepMind заявяват, че даден разработчик на AI е трудно да адресира структурните рискове и затова има нужда от интердисциплинарен, по-всеобхватен подход, включително нови норми, регулации и намесата на институции.

Несъмнено, тонът на доклада на DeepMind е в дисонанс с всеобщата еуфория от глобалната надпревара в изкуствения интелект. За сравнение, конкурентите им в лицето на OpenAI са по-оптимистично настроени за AGI. Самият изпълнителен директор на OpenAI Сам Алтман е заявил, че AGI ще при нас по-скоро, отколкото повечето си мислят, и че изкуственият общ интелект „би могъл да ни помогне да издигнем човечеството, като увеличим изобилието, ускорим световната икономика и подпомогнем откриването на нови научни знания, които променят границите на възможностите.“ В различни изказвания Алтман е подчертавал, че това може да е крачка към суперинтелигентност - алгоритъм с форма на интелигентност, която надминава всички когнитивните способности и представяне на хората във всички измерения и области.

Изкуственият общ интелект, който също няма ясна и консенсусна дефиниция, изглежда се очертава като решителната стъпка до достигане на суперинтелигентност. И тогава влизаме в хипотезата на „Великата повеля”, за която са запознати всички фенове на вселената на Аракис и Дюн на Франк Хъбърт. Ключовият въпрос е обаче дали всичките тези алгоритми, чатбове и модели не се развиват експоненциално по-бързо спрямо дори дискусиите за безопасност и етика.

Тук идва мястото да се каже нещо изключително непопулярно. ЕС досега много често е критикуван за прекомерните си регулации, правила, закони и директиви. И ако за бизнеса европейските регулации много често може да са проблем и слабост, то ЕС в напълно реалните хипотези на заплахите и рисковете от изкуственият интелект и AGI може да докаже това, в което е най-силна: регулациите. Но за постигнат своя (позитивен) ефект, регулациите трябва да вървят ръка за ръка с европейски технологичен суверенитет и скъсване на структурната зависимост с американските технологични компании и софтуер - задълбочаваща се тенденция в последния четвърт век.

Но за да не навлизаме в сценария на Бътлеровия джихад от книгите на „Дюн”, достатъчно е да се спазва едно просто на пръв поглед правило: машините, алгоритмите и изкуственият интелект единствено да са инструмент в помощ на човека, без да изземват функциите му да вземат решенията вместо него.