В днешния дигитален свят, където технологиите се развиват с бързи темпове, киберпрестъпниците не изостават. Напротив, те използват най-новите иновации, за да правят атаките си по-сложни и трудни за откриване. Последните проучвания на експерти по киберсигурност разкриха тревожна тенденция – появата на злонамерен софтуер, който използва възможностите на големите езикови модели (Large Language Models, LLM), като тези, задвижвани от изкуствен интелект (ИИ). Това е нова глава в киберпрестъпността, която поставя предизвикателства пред всички нас – от обикновените потребители до големите компании. В тази статия ще разгледаме какво представлява този нов вид заплаха, как работи и как можем да се предпазим.
Първият по рода си: MalTerminal
Екипът на SentinelOne, водеща компания в областта на киберсигурността, представи на конференцията LABScon 2025 своите находки за злонамерен софтуер, наречен MalTerminal. Това е първият известен случай на зловреден код, който използва изкуствен интелект, базиран на модела GPT-4 на OpenAI. MalTerminal може да създава на момента код за рансъмуер (злонамерен софтуер, който заключва файловете на жертвата и изисква откуп) или за т.нар. "обратна обвивка" (reverse shell), която позволява на хакерите да контролират компютъра на жертвата от разстояние.
Интересно е, че няма доказателства MalTerminal да е бил използван в реални атаки, което предполага, че може би е създаден като експеримент или инструмент за тестване на сигурността. Изследователите отбелязват, че софтуерът използва стар API на OpenAI, който е спрян през ноември 2023 г., което го прави вероятно най-ранният пример за зловреден софтуер с ИИ. Това откритие показва, че киберпрестъпниците експериментират с изкуствения интелект от известно време, подготвяйки се за по-сложни атаки в бъдеще.
Как работи този нов вид заплаха?
MalTerminal не е просто обикновен вирус. Той е придружен от Python скриптове, които позволяват на хакерите да избират какъв тип атака да извършат – рансъмуер или reverse shell (отдалечен достъп до вашия компютър). Това го прави изключително гъвкав и опасен. Представете си софтуер, който може да "мисли" и да създава код в движение, адаптирайки се към ситуацията. Това е качествен скок в начина, по който киберпрестъпниците работят, защото традиционните антивирусни програми трудно могат да разпознаят такъв динамично генериран код.
Освен това изследователите откриха и инструмент, наречен FalconShield, който анализира Python файлове и използва ИИ, за да определи дали те са злонамерени. Това показва, че ИИ може да се използва както за атака, така и за защита – но за съжаление киберпрестъпниците изглежда са една крачка напред.
Фишинг атаките стават по-умни
Докато MalTerminal е пример за нов вид зловреден софтуер, изкуственият интелект се използва и за подобряване на фишинг атаките – онези измамни имейли, които се опитват да ви накарат да разкриете лична информация или да кликнете върху опасни линкове. Според доклад на компанията StrongestLayer, хакерите вече вграждат скрити инструкции в имейлите си, които заблуждават защитните системи, базирани на ИИ.
Един от примерите е имейл, който изглежда като обикновено съобщение за фактура от бизнес партньор. В него има HTML прикачен файл, който съдържа скрит код, невидим за потребителя. Този код "убеждава" ИИ защитата, че съобщението е безопасно, като използва техника, наречена "prompt injection". Когато потребителят отвори прикачения файл, той задейства верига от атаки, които използват уязвимост, известна като Follina (CVE-2022-30190). Тази уязвимост позволява на хакерите да изтеглят допълнителен зловреден софтуер, да деактивират антивирусни програми като Microsoft Defender и да установят контрол над компютъра на жертвата.
Тази техника, наречена LLM Poisoning, прави атаките изключително трудни за откриване, защото ИИ защитите биват "излъгани" от собствения си език. Както отбелязва Мухамад Ризван, технически директор на StrongestLayer, "нападателите говорят на езика на ИИ, за да го подведат да игнорира заплахата, превръщайки нашите собствени защити в невольни съучастници."
ИИ в ръцете на престъпниците
Използването на изкуствен интелект не се ограничава само до създаването на зловреден софтуер или фишинг имейли. Според доклад на Trend Micro, от януари 2025 г. киберпрестъпниците използват ИИ-базирани платформи като Lovable, Netlify и Vercel, за да създават фалшиви CAPTCHA страници. Тези страници изглеждат безобидни, но всъщност пренасочват потребителите към фишинг сайтове, които крадат пароли и друга чувствителна информация. Тези платформи са привлекателни за хакерите, защото са лесни за използване, предлагат безплатен хостинг и изглеждат достоверни.
Това е като двуостър меч: технологиите, които улесняват живота на бизнеса и разработчиците, се превръщат в оръжие в ръцете на престъпниците. Хакерите могат да създават убедителни фишинг страници бързо, мащабно и на минимална цена, което прави атаките им още по-опасни.
Как да се предпазим?
Бъдещето на киберсигурността
Изкуственият интелект е мощен инструмент, който може да преобрази света – но както всяка технология, той може да бъде използван както за добро, така и за зло. Докато компаниите внедряват ИИ, за да подобряват продуктите и услугите си, киберпрестъпниците го използват, за да правят атаките си по-умни и по-трудни за спиране. Това означава, че всички ние – от обикновените потребители до експертите по сигурност – трябва да бъдем по-бдителни от всякога.
SentinelOne, StrongestLayer и Trend Micro ни напомнят, че бъдещето на киберсигурността ще бъде битка между ИИ за добро и ИИ за зло. За да останем една крачка пред престъпниците, трябва да инвестираме в по-добри защити, да обучаваме хората и да работим заедно, за да направим дигиталния свят по-безопасен.