ProIT: медіа для профі в IT
Приблизно хвилину

Баг у Microsoft 365 Copilot: ШІ-асистент отримував доступ до конфіденційних електронних листів користувачів

author avatar ProIT NEWS

Microsoft підтвердила, що помилка в Microsoft 365 Copilot давала можливість ШІ-помічнику формувати зведення конфіденційних електронних листів користувачів без їхньої згоди. Про це повідомляє Bleeping Computer.

Причиною інциденту став баг у функції чату work tab у Copilot, який відстежують під номером CW1226324 і вперше зафіксували 21 січня. Через нього система помилково зчитувала й узагальнювала листи з папок «Надіслані» і «Чернетки», зокрема з мітками конфіденційності, в обхід налаштованих DLP-правил.

Copilot Chat — це ШІ-чат-бот, який дає можливість користувачам Microsoft 365 взаємодіяти з інтелектуальними агентами у Word, Excel, PowerPoint, Outlook та OneNote. Microsoft почала впроваджувати його для платних бізнес-клієнтів у вересні 2025 року. У компанії підтвердили, що листи з конфіденційними мітками оброблялися некоректно, що могло створювати ризик розкриття чутливої інформації.

Microsoft повідомила, що виправлення почали розгортати на початку лютого. Станом на зараз компанія відстежує оновлення і зв’язується з частиною користувачів, яких могла торкнутися проблема, щоб переконатися, що все працює коректно.

Компанія не назвала ані строків повного усунення збою, ані кількості користувачів або організацій, яких він міг торкнутися, зазначивши, що оцінка масштабу може змінюватися під час розслідування.

Інцидент позначили як advisory. Так зазвичай маркують сервісні проблеми з обмеженим масштабом або впливом.

Раніше ми повідомляли, що у Windows 11 з’явиться контроль доступу як на смартфонах.

Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!

Приєднатися до company logo
Продовжуючи, ти погоджуєшся з умовами Публічної оферти та Політикою конфіденційності.