Microsoft обяви подробности за нова странична атака (side-channel attack), която може да позволи на зложелател, който наблюдава интернет трафика, да разбере за какво се говори в разговор с изкуствен интелект (AI) – дори когато връзката е шифрирана.
Тази атака е наречена Whisper Leak (в превод: „Шепнещ теч“).
---
Какво точно прави атаката?
Дори когато разговорът между потребител и голям езиков модел (LLM) – например ChatGPT, Grok или Mistral – е защитен с HTTPS (шифроване, което крие съдържанието), атакуващият може да види:
От тези две неща – размер и време – атакуващият може да познае темата на разговора.
Пример: Ако питаш AI за „парични измами“, моделът ще генерира отговор по определен начин. Този начин оставя „отпечатък“ в размера и времето на пакетите. Атакуващият може да разпознае този отпечатък – дори без да вижда текста.
---
Кой може да извърши такава атака?
Те не могат да прочетат какво пишеш, но могат да разберат дали говориш за забранена или чувствителна тема – например:
---
Как работи „стриймингът“ в AI?
Повечето модерни AI чатботове използват стрийминг режим:
Но точно този начин на изпращане оставя следите, които Whisper Leak използва.
---
Колко точна е атаката?
Microsoft тества атаката с три различни машинни модела за разпознаване:
Модел за разпознаване / Точност
Това означава: над 98% успеваемост при разпознаване на конкретна тема в произволен разговор.
---
Кои AI модели са уязвими?
След като Microsoft съобщи за уязвимостта, всички тези компании въведоха защита.
---
Как се защитаваме?
От страна на компаниите:
От страна на потребителите:
---
Други проблеми с отворените AI модели
Освен Whisper Leak, ново проучване на Cisco показа, че 8 популярни отворени AI модела (като Llama, Qwen, Gemma) лесно се „подвеждат“ с поредица от въпроси.
Те могат да бъдат принудени да игнорират своите собствени правила за безопасност след няколко разговора.
Особено уязвими са моделите, фокусирани върху мощност, а не върху сигурност.
---
Какво да правят компаниите?
---
Заключение
Whisper Leak показва, че дори шифроването не е достатъчно, когато става дума за AI. Метаданните (размер, време) могат да издадат повече, отколкото си мислим.
Добрата новина: проблемът е решен от водещите компании. Лошата: нови атаки ще се появяват.