Google інтегрувала AI-агентів Gemini у свій сервіс Threat Intelligence для моніторингу дарквебу. Новий інструмент уже доступний у форматі public preview і призначений для виявлення кіберзагроз, релевантних конкретним організаціям.
Система щодня обробляє до 10 млн публікацій у дарквебі та відбирає з них ті, що можуть бути небезпечними для конкретної організації. За даними Google, точність такого аналізу досягає 98%.
Принцип роботи досить простий. Спочатку Gemini створює профіль компанії на основі відкритих даних — наприклад, про її діяльність, технології, співробітників і бренди. Потім AI порівнює цей профіль із інформацією, яку знаходить у дарквебі.
Якщо система бачить потенційну загрозу — наприклад, продаж доступу до інфраструктури або витік даних — вона автоматично створює попередження. При цьому враховуються як прямі згадки компанії, так і непрямі збіги.
Наприклад, якщо в дарквебі з’являється оголошення про продаж доступу до великого банку зі схожими параметрами, Gemini може зіставити ці дані з профілем конкретної компанії і визначити ризик як високий.
Google підкреслює, що головна перевага такого підходу — зменшення кількості хибних спрацювань. Традиційні системи часто шукають лише ключові слова і можуть давати до 80–90% нерелевантних результатів, тоді як Gemini аналізує контекст.
Окрім цього, AI використовує дані аналітиків Google Threat Intelligence Group, які відстежують сотні хакерських груп, щоб точніше оцінювати рівень загрози.
Також Google додала AI-агентів у платформу Security Operations. Вони можуть автоматично розслідувати інциденти, збирати інформацію та формувати висновки для команд безпеки.
Водночас компанія визнає, що використання таких інструментів потребує контролю, оскільки доступ AI до даних потенційно може створювати нові ризики.
Нещодавно Google презентувала нові функції штучного інтелекту Gemini для сервісів Google Workspace. Оновлення торкнулося Google Docs, Sheets, Slides і Drive та має допомогти користувачам швидше створювати документи, таблиці та презентації, а також працювати з файлами.