Google Threat Intelligence Group (GTIG) повідомила про різкий зсув у тактиці кіберзлочинців: у 2025 році фіксується сплеск використання штучного інтелекту для створення та модифікації шкідливого ПЗ. Нові сімейства інтегрують великі мовні моделі (LLM) під час виконання, що дає їм змогу змінювати свій код у реальному часі.
Google називає цю техніку just-in-time self-modification — динамічне самозмінення, яке дозволяє зловмисникам обходити антивірусні механізми й ускладнює виявлення атак.
PromptFlux і PromptSteal: динамічні ШІ-загрози
Одним із прикладів став PromptFlux — експериментальний VBScript-дропер, який у нових версіях використовує LLM Gemini для створення обфускованих варіантів коду.
Його унікальний модуль Thinking Robot періодично звертається до Gemini, щоб отримати нові інструкції для обходу антивірусів. За словами аналітиків, автори прагнуть створити метаморфний скрипт, який постійно еволюціонує.
Google заблокувала доступ PromptFlux до Gemini API і видалила всі пов’язані активи, але техніка залишається у фазі активних експериментів.
Інше знайдене ПЗ — PromptSteal (LameHug), data miner, який уже використовувався в Україні. Він генерує динамічні скрипти для збору та ексфільтрації даних.
FruitShell, QuietVault і PromptLock
GTIG також описала кілька інших зразків:
• FruitShell — PowerShell reverse shell, який відкриває віддалений C2-доступ і виконує команди на заражених системах. Код містить prompt-запити для обходу LLM-захистів.
• QuietVault — JavaScript-стілер, орієнтований на крадіжку GitHub/NPM-токенів. Використовує локальні AI CLI-інструменти, щоб шукати й передавати додаткові секрети через динамічно створені GitHub-репозиторії.
• PromptLock — експериментальний AI-рансомвар на базі Lua, який може шифрувати дані на Windows, macOS і Linux.
Використання Gemini хакерами
Google також зафіксувала випадки зловживання моделлю Gemini під час усіх етапів атак:
APT41 (Китай) — використовував Gemini для генерації коду та обфускації у своєму фреймворку OSSTUN.
APT42 (Іран) — створював фішингові шаблони й SQL-агенти для аналізу персональних даних.
MuddyCoast (UNC3313, Іран) — використовував Gemini для розробки й налагодження шкідливого ПЗ.
Masan і Pukchong (Північна Корея) — для крадіжки криптовалюти, фішингу та створення deepfake-приманок.
У всіх випадках Google деактивувала пов’язані акаунти та посилила захисні фільтри моделі.
Дослідники виявили зростаючий попит на AI-засоби серед кіберзлочинців на англомовних і російських форумах.
На підпільних маркетплейсах продаються утиліти для генерації deepfake-відео, фішингу, пошуку вразливостей і навіть створення малварі через API чи Discord-ботів.
Розробники просувають свої моделі під виглядом легальних AI-рішень — з описами переваг, інструкціями та платними підписками.
«Ми розглядаємо кожен випадок зловживання нашими AI-сервісами, включно з діяльністю державних акторів, і використовуємо отриманий досвід, щоб підвищити безпеку моделей Gemini», — заявили в GTIG.
Звіт Google демонструє нову фазу еволюції кіберзагроз: штучний інтелект став не лише інструментом захисту, а й зброєю для автоматизованого злому. Україна вже фігурує серед цілей таких атак, тому моніторинг AI-зловживань і локальні рішення з кібербезпеки стають стратегічно критичними.
Читайте також на ProIT: Agentic Threat Intelligence: Google додає ШІ в розвідку кіберзагроз.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!