Александър Стаменов: Автоматизацията носи рискове, обучавайте служителите си
Александър Стаменов, CLICO, в "UpDate", 19.10.2025 г.
Автор: Галина Маринова
Социалният инженеринг става още по-опасен и труден за разпознаване. Бизнесът има ангажимент да прави редовни обучения на персонала си за актуалните рискове, как могат да бъдат идентифицирани заплахите, как да действат хората, когато забележат нещо нестандартно. Наистина има примери за киберинциденти, които са сложни и са открити от обикновените хора, просто защото са били бдителни. Ние, хората, бяхме, сме и най-вероятно ще бъдем голямата уязвимост в киберсигурността, но и най-голямата защита. Това каза Александър Стаменов, CLICO, в предаването "UpDate" на Bloomberg TV Bulgaria с водеща Елена Кирилова.
Изкуственият интелект (AI), включително по-старите системи за машинно обучение и новите големи езикови модели (Large Language Models), променят както кибератаките, така и киберзащитата.
AI в киберсигурността, под формата на машинно обучение, съществува от 2014-2015 г. Тези системи помагат за увеличаване на защитата и намаляване на риска, като се научават как традиционно се използват дадени ресурси и вдигат аларми при необичайни действия.
Новите големи езикови модели (Large Language Models - LLMs/ChatGPT) увеличават продуктивността и подпомагат защитата, каза госът.
"LLM помагат на хората да бъдат по-продуктивни, позволявайки по-малко хора да вършат повече работа по-бързо" . "Те спомагат на компаниите да постигат повече с по-малко ресурси, подобрявайки общата сигурност".
За злоупотребата с гласови и видео имитации събеседникът сподели, че AI позволява създаването на фалшиви видеоклипове и клониране на гласове с висока степен на реализъм. Александър Стаменов дава пример с телефонните измами, където би могло да се използва клониран глас на близък човек, за да се измами жертвата. Социалният инженеринг става още по-опасен и труден за разпознаване.
Трябва да се внимава какви данни се използват за обучение на AI модели, кой ги съхранява и доколко е сигурен. Злонамерен актьор може да подаде фалшиви данни, за да "натренира" AI грешно, затруднявайки работата.
В момента съществува недостиг на регулация за AI съдържанието, което улеснява злоупотребата от киберпрестъпници, каза още Стаменов.
Според Александър Стаменов от CLICO, компаниите, независимо от техния размер, трябва да предприемат конкретни мерки, за да защитят ценните си данни и да се справят с новите рискове, породени от автоматизацията и AI. На първо място е нужно внимателно управление на данните за обучение на AI. Необходимо е да се внимава какви данни се използват за обучение на AI модели, как се съхраняват те и кой има достъп до тях. Важно е да се предвидят уязвимости като подаване на фалшиви данни, които биха могли да "натренират" AI грешно.
Основните мерки за киберзащита (особено за малки компании) включват защита на всички акаунти с сложни и различни пароли, използване на двуфакторна идентификация навсякъде, където е възможно, както и направа на пощенски кутии с решения за защита от спам.
При автоматизацията на бизнес процеси е критично те да бъдат добре документирани. Това ще предотврати ситуация, при която бизнесът спира, ако автоматизираната система се повреди и хората са забравили как да извършват процесите ръчно.
Планирането за възстановяване след инцидент също е от ключово значение, напомни Александър Стаменов. "Компаниите трябва да подготвят сценарии за бързо възстановяване на работата след евентуален киберинцидент и да ги разиграват, особено в по-големите организации".
Вижте целия коментар във видеото.
Всички гости на предаването "UpDate" може да гледате тук.