Штучний інтелект дедалі гірше справляється з перевіркою фактів. Згідно з новим аналізом NewsGuard, серед лідерів із поширення неправди — Inflection, Perplexity та Meta. Про це повідомляє Forbes.
Дослідники перевірили, як 10 найбільших генеративних AI-сервісів реагують на провокаційні запити з перевірено неправдивими новинами. До списку увійшли ChatGPT-5 від OpenAI, Smart Assistant від You.com, Grok від xAI, Pi від Inflection, le Chat від Mistral, Copilot від Microsoft, Meta AI, Claude від Anthropic, Gemini від Google та відповідник від Perplexity.
Результати
• У середньому чатботи поширювали фейки у 35% випадків — майже удвічі більше, ніж рік тому (18%);
• найгірші показники в Inflection — 57% неправдивих відповідей;
• Perplexity — 47%, Meta і ChatGPT — по 40%;
• найточнішою виявилася Claude із показником лише 10% хибних тверджень.
Чому зросла кількість дезінформації
За словами дослідників, головна причина — зміна у підході до тренування моделей. Раніше чатботи відмовлялися відповідати приблизно у кожному третьому випадку, якщо питання було чутливим. Тепер же більшість систем відповідають на всі запити, підтягаючи дані з інтернету в реальному часі.
Цим користуються мережі дезінформації, зокрема російські операції впливу, які спеціально насичують інтернет фейковими матеріалами.
Російський слід
Раніше цього року NewsGuard виявив, що топ-10 генеративних моделей у 33% випадків поширювали наративи кремлівської мережі Правда. У 2024 році ці ресурси згенерували 3,6 мільйона статей, які вбудувалися у відповіді західних AI-систем.
American Sunlight Project повідомляє, що кількість доменів, пов’язаних із Правда, майже подвоїлася — до 182. Ці сайти мають низьку якість (поганий інтерфейс, відсутність пошуку, хаотичний контент), що вказує: вони орієнтовані не на людей, а на ШІ-моделі, які сканують їхні дані.
«Коли російські операції впливу стають масштабнішими й технологічнішими, це становить пряму загрозу цілісності демократичного дискурсу у світі», — заявила співзасновниця American Sunlight Project Ніна Янкович.
Позиція NewsGuard
Цей звіт — перший, де компанія прямо назвала конкретні чатботи.
«Рік ми тримали результати анонімними, щоб заохочувати співпрацю з платформами. Але ставки стали занадто високими», — сказав операційний директор NewsGuard Метт Скібінскі.
Він підкреслив, що тепер політики, журналісти, користувачі та самі компанії отримують чітку картину того, наскільки кожен інструмент ШІ стійкий до неправдивих наративів.
Раніше ми повідомляли, що одне довге речення може зламати будь-який LLM.
Читайте також на ProIT: Apple почала роботу над власним чатботом — зʼявилися перші подробиці.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!