Корпорація Microsoft працює над новими функціями безпеки, які зроблять ШІ більш стійким до обманів і маніпуляцій, повідомляє Bloomberg.
Нові функції безпеки вбудовані в Azure AI Studio і дають змогу розробникам створювати налаштованих помічників штучного інтелекту, використовуючи власні дані, повідомляє Microsoft.
Інструменти включають оперативні щити, призначені для виявлення і блокування навмисних спроб (також відомих як атаки швидкого впровадження або джейлбрейк). Вони змушують модель штучного інтелекту поводитися непередбачувано.
Також Microsoft розглядає непрямі оперативні ін’єкції, коли хакери вставляють зловмисні інструкції в дані, на яких навчається модель, і обманом змушують її виконувати такі неавторизовані дії, як викрадення інформації користувача або проникнення до системи.
Такі атаки є унікальним викликом і загрозою, вважають у Microsoft. Нові засоби захисту призначені для виявлення підозрілих вхідних даних і блокування їх у режимі реального часу. Також корпорація розгортає функцію, яка сповіщає користувачів, коли модель щось вигадує або генерує помилкові відповіді.
Microsoft прагне підвищити довіру до своїх генеративних інструментів штучного інтелекту, якими зараз користуються як приватні споживачі, так і корпоративні клієнти.
У лютому компанія розслідувала інциденти, пов’язані з її чат-ботом Copilot, який генерував дивні й шкідливі відповіді. Після аналізу інцидентів фахівці заявили, що користувачі навмисно намагалися обдурити Copilot.
Microsoft є найбільшим інвестором OpenAI. І Microsoft, і OpenAI зацікавлені у безпечному розгортанні штучного інтелекту й створенні засобів захисту великих мовних моделей, що лежать в основі генеративного ШІ.
Раніше ми повідомляли, що Microsoft оголосила про випуск нового офісного пакету Office LTSC 2024, який буде доступний для придбання за одноразову плату, а не за щомісячну.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!