ProIT: медіа для профі в IT
Приблизно хвилину

Microsoft готується запатентувати рішення для усунення «галюцинацій» ШІ

author avatar ProIT NEWS

Microsoft подала заявку на патент для технічного методу, який може зменшити або припинити виникнення «галюцинацій» ШІ — помилкових або недостовірних відповідей, повідомляє PC Mag.

Запропонований патент під назвою «Взаємодія з мовною моделлю за допомогою зовнішніх знань та відгуків» було подано до Управління США з патентів і товарних знаків (USPTO) минулого року, але його оприлюднили 31 жовтня.

Метод надає моделі ШІ «систему доповнення відповідей» (RAS), яка може автоматично отримувати додаткову інформацію на основі запиту користувача і перевіряти «корисність» своєї відповіді. Це означає, що RAS зможе з’ясувати, чи доступна інформація з «зовнішніх джерел» в інтернеті або в базі даних, яка могла б відповісти на запит користувача. Система може позначити відповідь як некорисну, якщо ШІ не включив цю інформацію до відповіді.

RAS також може змусити чат-бот повідомляти користувача, якщо він вважає, що відповідь недостатньо повна або сумнівна, і користувач зможе надати зворотний зв’язок. Запропоноване рішення не потребує від розробників або компаній налаштування вже існуючих моделей.

Сайт USPTO не містить номера патенту для заявки, що свідчить про те, що вона все ще перебуває на розгляді.

Microsoft раніше анонсував інструмент для зменшення галюцинацій штучного інтелекту Content Safety, призначений для компаній, що використовують чат-ботів на базі ШІ. Він забезпечує перевірку відповідей ШІ, яка може визначити, чи є відповідь «недостовірною» або «достовірною», перш ніж надавати її користувачу. Хоча це не гарантує повного уникнення неправдивої інформації, система додає додатковий етап перевірки, щоб переконатися, що інформація підтверджується реальними даними, і надає лише відповіді з наявними джерелами.

«Галюцинації» є однією з найбільших проблем генеративного ШІ, оскільки вони можуть зробити чат-ботів ненадійними або, в деяких випадках, навіть непридатними до використання. ШІ від Google і Grok AI від X вже допускали помилки, наприклад, радили користувачам наносити клей на піцу або їсти каміння, а також поширювали неправдиву інформацію про вибори.

Але  деякі «галюцинації» можуть бути корисними —у світі бактерій це допомагає дослідникам відкривати нові ліки, які рятують життя. Читайте про це на ProIT.

Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!

Приєднатися до company logo
Продовжуючи, ти погоджуєшся з умовами Публічної оферти та Політикою конфіденційності.