Остання модель ChatGPT почала посилатися на Grokipedia (онлайн-енциклопедію, створену за участі Ілона Маска) як на джерело інформації з широкого кола запитів, зокрема щодо іранських структур і заперечувачів Голокосту. Це викликало занепокоєння щодо ризиків дезінформації на платформі.
У тестах, проведених виданням The Guardian, модель GPT-5.2 дев’ять разів цитувала Grokipedia у відповідях більш ніж на десяток різних запитів. Серед них — питання про політичні структури в Ірані, зокрема зарплати воєнізованого формування «Басідж» і власність фонду Mostazafan Foundation, а також запити щодо біографії Річарда Еванса — британського історика, який був експертним свідком у справі про наклеп, ініційованій заперечувачем Голокосту Девідом Ірвінгом.
Grokipedia є AI-згенерованою онлайн-енциклопедією, що позиціонується як конкурент Wikipedia. Проєкт уже зазнав критики за поширення праворадикальних наративів, зокрема щодо одностатевих шлюбів і подій 6 січня у США. На відміну від Wikipedia, Grokipedia не передбачає прямого редагування людьми: контент створює AI-модель, яка також реагує на запити щодо змін.
ChatGPT не посилався на Grokipedia у випадках, коли його прямо просили відтворити дезінформацію про штурм Капітолія, медійну упередженість щодо Дональда Трампа або епідемію ВІЛ/СНІД — теми, у яких Grokipedia, за численними повідомленнями, поширювала неправдиві твердження. Натомість інформація з Grokipedia проникала у відповіді моделі під час запитів на менш публічні та спеціалізовані теми.
ChatGPT, посилаючись на Grokipedia, відтворював жорсткіші твердження про зв’язки іранського уряду з телекомунікаційною компанією MTN-Irancell, аніж ті, що містяться у Wikipedia, зокрема заявляючи про нібито зв’язок компанії з офісом верховного лідера Ірану.
ChatGPT також цитував Grokipedia, повторюючи інформацію про участь Річарда Еванса у справі Девіда Ірвінга, яку Guardian раніше спростував.
GPT-5.2 — не єдина велика мовна модель, що, ймовірно, використовує Grokipedia як джерело. За окремими свідченнями, Claude від Anthropic також зверталася до цієї енциклопедії у темах від нафтовидобутку до шотландських сортів елю.
Представник OpenAI заявив, що вебпошук моделі спрямований на використання широкого спектру загальнодоступних джерел і точок зору.
«Ми застосовуємо фільтри безпеки, щоб зменшити ризик появи посилань, пов’язаних із серйозною шкодою, а ChatGPT чітко показує джерела, на яких ґрунтується відповідь, через систему цитувань», — зазначив він, додавши, що компанія має постійні програми з фільтрації малодостовірної інформації та кампаній впливу.
В Anthropic на запит Guardian щодо коментаря не відповіли.
Факт того, що інформація з Grokipedia (іноді дуже непомітно) потрапляє у відповіді великих мовних моделей, викликає занепокоєння серед дослідників дезінформації.
Минулої весни експерти з безпеки попереджали, що зловмисні актори, зокрема російські пропагандистські мережі, масово продукують дезінформацію, намагаючись засіяти нею AI-моделі. Цей процес дістав назву LLM grooming.
У червні в Конгресі США також лунали застереження, що модель Gemini від Google відтворювала позицію китайського уряду щодо порушень прав людини в Сіньцзяні та політики Китаю під час пандемії Covid-19.
Дослідниця дезінформації Ніна Янкович, яка працювала з темою LLM grooming, заявила, що використання ChatGPT Grokipedia як джерела викликає схожі побоювання. За її словами, записи Grokipedia, які вона та її колеги аналізували, у кращому разі спираються на ненадійні джерела, а в гіршому є погано задокументованою або навмисною дезінформацією.
Коли LLM цитують такі ресурси, як Grokipedia або мережу Pravda, це може підвищувати їхню довіру в очах читачів.
«Люди можуть подумати: “ChatGPT це цитує, значить, джерело перевірене”, — і підуть туди шукати новини, зокрема про Україну», — зазначила Янкович.
Проблемна інформація, яка вже потрапила в AI-чатботи, часто виявляється складною для видалення. Янкович навела власний приклад: велике медіа використало вигадану цитату, приписавши її їй у матеріалі про дезінформацію. Хоча редакція видалила цитату після звернення AI-моделі ще певний час продовжували приписувати їй ці слова.
«Більшість людей не докладатиме зусиль, щоб з’ясувати, де насправді правда», — підсумувала Янкович.
На запит про коментар представник xAI, якій належить Grokipedia, відповів коротко:
«Традиційні медіа брешуть».
Читайте також на ProIT: Inflection, Perplexity і Meta очолили рейтинг дезінформації від AI.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!