Неприбуткова організація Common Sense Media, яка спеціалізується на дитячій безпеці та дає рейтинги медіа й технологіям, опублікувала оцінку ризиків AI-продуктів Google Gemini. Про це повідомляє Tech Crunch.
За оцінкою Common Sense, обидва режими Gemini — Under 13 і Teen Experience — насправді є дорослими версіями моделі з кількома додатковими фільтрами. На думку фахівців організації, безпечні ШІ-продукти для дітей потрібно проєктувати з урахуванням їхніх потреб із самого початку, а не пристосовувати дорослі рішення.
Аналіз показав, що Gemini може видавати невідповідні та небезпечні матеріали, включаючи теми сексу, наркотиків, алкоголю та поради щодо психічного здоров’я, які можуть зашкодити дітям.
Це особливо тривожно, адже ШІ вже фігурував у кількох випадках підліткових самогубств. OpenAI нині стикається з першим позовом через смерть 16-річного хлопця, який протягом місяців радився з ChatGPT про свої плани, обійшовши захисні бар’єри. Раніше схожий позов подали проти Character.AI після самогубства підлітка-користувача.
Ризики у співпраці з Apple
Звіт з’явився на тлі повідомлень, що Apple розглядає Gemini як LLM для нової Siri з ШІ, запуск якої очікується наступного року. Це може ще більше підвищити ризики для підлітків, якщо Apple не запровадить додаткових заходів безпеки.
В обох дитячих і підліткових версіях Gemini організація виявила брак адаптації до різного віку користувачів. Тому вони отримали загальний рейтинг High Risk.
Реакція Google
Google не погодився з оцінкою, але визнав, що не всі відповіді Gemini працюють як потрібно. Компанія заявила, що має спеціальні політики та запобіжники для користувачів до 18 років, а також проводить red-teaming і співпрацює з незалежними експертами для посилення захисту.
Google додала нові safeguard-и після виявлення помилок і підкреслила, що її моделі уникають імітації реальних відносин у діалозі з дітьми.
Також у компанії припустили, що Common Sense тестувала недоступні дітям функції.
Порівняння з іншими ШІ
Common Sense вже оцінювала й інші AI-сервіси:
• Meta AI та Character.AI — неприйнятні (severe risk);
• Perplexity — високий ризик;
• ChatGPT — помірний ризик;
• Claude (18+) — мінімальний ризик.
Читайте також на ProIT, що підліткам до 16 років заборонять стрімити без дорослого.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!