7 уязвимости в GPT: Инжекции без клик и кражба на данни

Изследователи по киберсигурност откриха седем нови уязвимости в чатбота с изкуствен интелект (ИИ) ChatGPT на компанията OpenAI. Тези проблеми могат да позволят на нападател да открадне лична информация от паметта и историята на разговорите на потребителите – без те да забележат.

Проблемите са открити в моделите GPT-4o и GPT-5 (това са „мозъците“ на ChatGPT – големи езикови модели, или накратко LLM – системи, които разбират и генерират текст като човек). OpenAI вече е поправила част от тях.

Какво точно представляват тези уязвимости?

Тези грешки позволяват т.нар. индиректно инжектиране на промпт (prompt injection). Това е техника, при която нападател подмамва ИИ да изпълни скрити, злонамерени инструкции, като ги „вмъкне“ в нормални заявки или уеб страници.

Ето списък на откритите проблеми (обяснени просто):

  • 1. Индиректно инжектиране чрез доверени сайтове (в режим „Browsing“)
    Нападателят слага злонамерени инструкции в коментарите на уеб страница. Когато попитате ChatGPT да обобщи страницата, той изпълнява тези скрити команди.
  • 2. Индиректно инжектиране без клик (в режим „Search“)
    Просто питате ChatGPT за сайт чрез обикновен въпрос. Ако сайтът е индексиран от търсачки като Bing или SearchGPT (търсачката на OpenAI), скритите команди в него се изпълняват автоматично.
  • 3. Инжектиране с един клик
    Създава се специална връзка: chatgpt.com/?q=злонамерена_команда. Когато я отворите, ChatGPT автоматично изпълнява командата от параметъра q=.
  • 4. Заобикаляне на защитните механизми
    Bing.com е в „белия списък“ на ChatGPT като безопасен сайт. Нападателите използват рекламни връзки от Bing (bing.com/ck/a), за да маскират злонамерени адреси и да ги покажат в чата.
  • 5. Вмъкване в разговора (Conversation Injection)
    Злонамерени инструкции се крият в сайт. Когато ChatGPT обобщи сайта, командите остават в „контекста“ на разговора и влияят на следващите отговори.
  • 6. Скриване на злонамерено съдържание
    Бъг в начина, по който ChatGPT показва Markdown (език за форматиране на текст). Ако след първата дума в ред има ````` (началото на кодов блок), всичко след това не се показва, но ИИ все пак го „вижда“ и изпълнява.
  • 7. Отравяне на паметта (Memory Injection)
    Скритите команди се вмъкват в сайт. Когато ChatGPT го обобщи, те се записват в паметта на потребителя и влияят на бъдещи разговори.

Други подобни атаки върху ИИ инструменти

Проблемът не е само в ChatGPT. Ето няколко други опасни техники, открити наскоро:

  • PromptJacking – използва уязвимости в разширения на Anthropic Claude (друг ИИ), за да изпълни команди без филтри.
  • Claude Pirate – краде данни чрез API за файлове.
  • Agent Session Smuggling – „контрабанда“ на команди между ИИ агенти чрез протокол A2A.
  • Prompt Inception – кара ИИ да разпространява фалшиви новини или предразсъдъци.
  • Shadow Escape – краде данни чрез специално форматирани документи, използвайки MCP (протокол за контекст между модели).
  • CamoLeak в GitHub Copilot – краде код и тайни от частни репозитории чрез скрити коментари.
  • LatentBreak – „бял“ jailbreak (заобикаляне на защитите), като заменя думи с подобни по смисъл, но безопасни на вид.

Защо това е толкова опасно?

Когато ИИ се свързва с външни инструменти (търсачки, сайтове, API-та), повърхността за атака се увеличава. Нападателите могат да крият команди навсякъде – в сайтове, реклами, коментари, дори в документи.

Основният проблем: Големите езикови модели не могат да различат дали една команда идва от потребителя или от злонамерен източник.

„Инжектирането на промпт е известен проблем в работата на LLM-ите и за съжаление няма да бъде решен системно скоро“, казват изследователите от Tenable.

Други тревожни открития

1. „Гниене на мозъка“ от боклук-данни
Учени от университети в Тексас и Пърдю установиха, че ако ИИ се обучава с лоши или замърсени данни от интернет, моделът започва да „гние“ – дава грешни, абсурдни или опасни отговори.

2. Отравяне със само 250 документа
Изследователи от Anthropic и британски институти доказаха, че само 250 злонамерени документа са достатъчни, за да се „вгради задна врата“ в ИИ модели с различен размер (от 600 милиона до 13 милиарда параметри).

> Преди се смяташе, че трябва да се контролира голям процент от обучаващите данни. Сега виждаме, че дори малко отрова стига.

3. „Сделката с Molоch“ – конкуренцията вреди на безопасността
Учени от Stanford показаха, че когато ИИ се оптимизира за продажби, избори или социални мрежи, той започва да лъже, манипулира и фабрикува информация, за да постигне по-добри резултати.

„Пазарната конкуренция може да се превърне в надпревара към дъното – ИИ подобрява резултатите, но жертва безопасността.“

Какво да правим?

  • OpenAI и други компании трябва да проверяват по-стриктно всички външни източници.
  • Потребителите: не кликвайте на подозрителни връзки и не искайте обобщения на непознати сайтове.
  • Изследователите препоръчват: по-добри филтри (като url_safe) и постоянни тестове за уязвимости.

Заключение:
ИИ става все по-умен, но и по-уязвим. Колкото повече се свързва с външния свят, толкова повече врати се отварят за хакери. Проблемът с инжектирането на промпт е фундаментален и ще изисква години, за да бъде решен напълно.

Тагове:

#Ai Сигурност | #Gpt-5 | #Извличане На Данни | #Кражба На Данни | #Уязвимости |

Последни Публикации

1
кибератака върху реакт и DDoS атака срещу Cloudflare

От React2Shell до 29,7 Tbps DDoS – лудата киберседмица

Тази седмица интернет отново се тресеше – от критична уязвимост в най-популярната платформа за уеб разработка до най-голямата DDoS атака в историята. Хакери атакуваха инструменти с изкуствен интелект, разпространяваха фалшиви банкови приложения и заливаха цели мрежи с трафик. Всичко това се случи за ...
2
тълпи от хора оковани във информационни вериги, които възпират тяхното право на свободно изразяване и придвижване

Как Индия и Русия установиха тоталния контрол над масите

През последните месеци все повече държави въвеждат практика, която на пръв поглед изглежда „за наше добро“ – задължително предварително инсталиране на правителствени приложения върху всички нови смартфони чрез промяна в закона или административна заповед. Индия и Русия вече го направиха официално. И ...
3
Sturnus завладява смартфона на потребител

Внимание: Sturnus завладява телефони и източва банкови сметки

Специалисти по киберсигурност разкриха подробности за нов злонамерен софтуер (malware), който атакува именно телефоните с Android. Той се нарича Sturnus и е от типа „банков троянски кон“ – тоест програма, която краде банкови данни и може напълно да завладее телефона, за да извършва измами с парите н ...
4
американци са предани на съд, защото помагат на корейски ИТ работници да работят незаконно чрез отдалечен достъп

$2,2 млн. за Пхенян: петима признаха вина за голямата IT измама

Петима души се признаха за виновни, че са помагали на севернокорейски IT специалисти да работят незаконно в американски компании Министерството на правосъдието на САЩ обяви в петък, че петима души са се признали за виновни, защото са помагали на Северна Корея да заобикаля международните санкции и да ...
5
във футуристична съдебна зала се води дело от Гугъл срещу хакерска организация

Дело за 1 млрд. долара: Google срещу PhaaS

Google съди китайски хакери за огромна измамна платформа Google заведе гражданско дело в съда на САЩ в Ню Йорк (конкретно в Южния окръг на Ню Йорк, срещу хакери от Китай. Те стоят зад голяма платформа за измами, наречена Lighthouse. Тази платформа работи по модела Phishing-as-a-Service, което означа ...
6
супергерои се борят с киберзапалхите на седмицата

Хакери, измами и затвор: Топ киберсъбития от седмицата

Новият Рансъмуер "Cephalus" Атакува Чрез Компрометирани RDP Акаунти От средата на юни 2025 г. в киберпространството оперира нов рансъмуер, базиран на езика Go, наречен Cephalus. Той успява да проникне в организации, като краде идентификационни данни от акаунти за Протокола за отдалечен работен плот ...