Й. Чуклев: Балон ще се спука при хуманоидните роботи, не при AI
Йонко Чуклев, финансов анализатор и зам.-председател на Професионалната асоциация по роботика, във „В развитие“, 08.12.2025 г.
Автор: Волен Чилов
Китай предупреждава за риск от балон в сектора на хуманоидната роботика и това не е изненадващо. Миналата година никой не смяташе, че в момента в Китай ще оперират над 150 компании, разработващи хуманоидни роботи. В изявлението е написано – компаниите оперират в едно и също поле, дублират се, а иновациите са почти никакви. Единственото, което се случва, че тези компании изсмукват капитал от други ключови сектори на бъдещето на китайската икономика. Това каза Йонко Чуклев, финансов анализатор и зам.-председател на Професионалната асоциация по роботика, в предаването „В развитие“ с водещ Антонио Костадинов.
Ситуацията напомня на пазара на електрически тротинетки и велосипеди под наем в Китай преди пандемията – множество играчи, дублиране на модели и бърза експанзия, последвани от консолидация и разочаровани инвеститори, коментира гостът.
Според него именно в тази посока се развива и хуманоидната роботика – демонстрации на хуманоидни роботи се случват в тестова, а не в реална производствена среда, което създава изкривена представа за зрелостта на технологията.
Дори самият Илон Мъск е отложил плановете за масово производство на хуманоидния робот Optimus. Причините според Чуклев са както технически, така и свързани с очакванията.
„Първата причина е техническа, а втората е, че самият Илон Мъск дава агресивни предсказания за това кога нещо се произведе и ще се ползва масово.“
Експертът обясни, че проблеми като фината моторика и прегряването остават трудно решими с настоящите технологии, а цената от 20-30 хиляди долара, заложена от Мъск, прави масовото внедряване в производството икономически неустойчиво.
Йонко Чуклев смята, че е по-вероятно да се спука балона при хуманоидната роботика, а не при изкуствения интелект. За разлика от роботиката, дори по-слабите големи езикови модели вече имат реална използваемост, изградени системи и генерират приходи.
„Големият проблем е приложното поле... Всички роботи, които ще влязат във фабриките, ще имат голям проблем. Ако капацитетът изпревари търсенето, ще се спука този балон преди изкуствения интелект.“
Чуклев сравни роботиката с електромобилите в Китай, където за разлика от електромобилите, където търсенето се материализира, при хуманоидната роботика заложеното пазарно търсене остава несигурно.
Той цитира доклад на китайска научна асоциация. В него се посочва, че секторът изсмуква капитал от други приоритетни области за китайската икономика, като биотехнологиите и космическите технологии.
По думите на Чуклев това ще доведе до консолидация и пренасочване на компаниите – от хуманоидни роботи към по-ясно приложими решения като коботи.
„Това, че е приоритетно направление, не значи, че всяка втора компания трябва да бъде за роботика, особено без ясно приложно поле“, подчертава той.
Индексът за безопасност на AI на американския Институт „Бъдещето на живота“ показва, че водещите компании не успяват да спазят глобалните стандарти. Според Чуклев това не е изненадващо – в преследването на общ изкуствен интелект мерките за сигурност не са приоритет.
Той добави, че изкуственият интелект остава най-трудният за регулиране сектор. Съществуват проблеми, които разработчиците често не могат да обяснят защо системата е взела конкретно решение, а изследователи са идентифицирали 32 вида проблемно поведение при AI моделите.
Според събеседника временно забавяне на развитието в полза на по-контролиран растеж и спазване на етични норми е оправдано.
По думите на госта европейският подход цели да наложи принципи и обща рамка през AI акта, но на практика голяма част от регулацията може да се окаже непостижима за прилагане. Според Чуклев отговорът не е само в регулацията, а в екипите по етика и контрол вътре в самите компании, които да поемат реалната отговорност за управлението на риска и развитието на изкуствения интелект.
„Тук, за съжаление, ако процесите не се контролират вътре в компанията, регулаторите имат изключително ограничени възможности.“
Той дава пример с хипотетично разработване на високорисков AI модел в България – не е ясно кой регулатор би могъл реално да измери нивата на риск.
Вижте целия коментар във видеото.
Всички гости на предаването „В развитие“ можете да гледате тук.