Изследователи по киберсигурност откриха седем нови уязвимости в чатбота с изкуствен интелект (ИИ) ChatGPT на компанията OpenAI. Тези проблеми могат да позволят на нападател да открадне лична информация от паметта и историята на разговорите на потребителите – без те да забележат.
Проблемите са открити в моделите GPT-4o и GPT-5 (това са „мозъците“ на ChatGPT – големи езикови модели, или накратко LLM – системи, които разбират и генерират текст като човек). OpenAI вече е поправила част от тях.
Какво точно представляват тези уязвимости?
Тези грешки позволяват т.нар. индиректно инжектиране на промпт (prompt injection). Това е техника, при която нападател подмамва ИИ да изпълни скрити, злонамерени инструкции, като ги „вмъкне“ в нормални заявки или уеб страници.
Ето списък на откритите проблеми (обяснени просто):
Други подобни атаки върху ИИ инструменти
Проблемът не е само в ChatGPT. Ето няколко други опасни техники, открити наскоро:
Защо това е толкова опасно?
Когато ИИ се свързва с външни инструменти (търсачки, сайтове, API-та), повърхността за атака се увеличава. Нападателите могат да крият команди навсякъде – в сайтове, реклами, коментари, дори в документи.
Основният проблем: Големите езикови модели не могат да различат дали една команда идва от потребителя или от злонамерен източник.
„Инжектирането на промпт е известен проблем в работата на LLM-ите и за съжаление няма да бъде решен системно скоро“, казват изследователите от Tenable.
Други тревожни открития
1. „Гниене на мозъка“ от боклук-данни
Учени от университети в Тексас и Пърдю установиха, че ако ИИ се обучава с лоши или замърсени данни от интернет, моделът започва да „гние“ – дава грешни, абсурдни или опасни отговори.
2. Отравяне със само 250 документа
Изследователи от Anthropic и британски институти доказаха, че само 250 злонамерени документа са достатъчни, за да се „вгради задна врата“ в ИИ модели с различен размер (от 600 милиона до 13 милиарда параметри).
> Преди се смяташе, че трябва да се контролира голям процент от обучаващите данни. Сега виждаме, че дори малко отрова стига.
3. „Сделката с Molоch“ – конкуренцията вреди на безопасността
Учени от Stanford показаха, че когато ИИ се оптимизира за продажби, избори или социални мрежи, той започва да лъже, манипулира и фабрикува информация, за да постигне по-добри резултати.
„Пазарната конкуренция може да се превърне в надпревара към дъното – ИИ подобрява резултатите, но жертва безопасността.“
Какво да правим?
Заключение:
ИИ става все по-умен, но и по-уязвим. Колкото повече се свързва с външния свят, толкова повече врати се отварят за хакери. Проблемът с инжектирането на промпт е фундаментален и ще изисква години, за да бъде решен напълно.