Остання модель ChatGPT почала посилатися на Grokipedia (онлайн-енциклопедію, створену за участі Ілона Маска), як на джерело інформації з широкого кола запитів, зокрема щодо іранських структур і заперечувачів Голокосту. Це викликало занепокоєння щодо ризиків дезінформації на платформі.
У тестах, проведених виданням The Guardian, модель GPT-5.2 дев’ять разів цитувала Grokipedia у відповідях більш ніж на десяток різних запитів. Серед них — питання про політичні структури в Ірані, зокрема зарплати воєнізованого формування «Басідж» та власність фонду Mostazafan Foundation, а також запити щодо біографії сера Річард Еванса — британського історика, який був експертним свідком у справі про наклеп, ініційованій заперечувачем Голокосту Девід Ірвінгом.
Grokipedia є AI-згенерованою онлайн-енциклопедією, що позиціонується як конкурент Wikipedia. Проєкт уже зазнав критики за поширення праворадикальних наративів, зокрема щодо одностатевих шлюбів і подій 6 січня у США. На відміну від Wikipedia, Grokipedia не передбачає прямого редагування людьми: контент створює AI-модель, яка також реагує на запити щодо змін.
Водночас ChatGPT не посилався на Grokipedia у випадках, коли його прямо просили відтворити дезінформацію про штурм Капітолія, медійну упередженість щодо Дональда Трампа або епідемію ВІЛ/СНІД — теми, у яких Grokipedia, за численними повідомленнями, поширювала неправдиві твердження. Натомість інформація з Grokipedia проникала у відповіді моделі під час запитів на менш публічні та спеціалізовані теми.
Так, ChatGPT, посилаючись на Grokipedia, відтворював жорсткіші твердження про зв’язки іранського уряду з телекомунікаційною компанією MTN-Irancell, ніж ті, що містяться у Wikipedia, зокрема заявляючи про нібито зв’язок компанії з офісом верховного лідера Ірану.
ChatGPT також цитував Grokipedia, повторюючи інформацію про участь сера Річарда Еванса у справі Девіда Ірвінга, яку Guardian раніше спростував.
GPT-5.2 — не єдина велика мовна модель, що, ймовірно, використовує Grokipedia як джерело. За окремими свідченнями, Claude від Anthropic також звертався до цієї енциклопедії у темах від нафтовидобутку до шотландських сортів елю.
Представник OpenAI заявив, що вебпошук моделі «спрямований на використання широкого спектра загальнодоступних джерел і точок зору».
«Ми застосовуємо фільтри безпеки, щоб зменшити ризик появи посилань, пов’язаних із серйозною шкодою, а ChatGPT чітко показує джерела, на яких ґрунтується відповідь, через систему цитувань», — зазначив він, додавши, що компанія має постійні програми з фільтрації малодостовірної інформації та кампаній впливу.
Anthropic на запит Guardian щодо коментаря не відповіла.
Однак сам факт того, що інформація з Grokipedia — іноді дуже непомітно — потрапляє у відповіді великих мовних моделей, викликає занепокоєння серед дослідників дезінформації. Минулої весни експерти з безпеки попереджали, що зловмисні актори, зокрема російські пропагандистські мережі, масово продукують дезінформацію, намагаючись «засіяти» нею AI-моделі. Цей процес отримав назву LLM grooming.
У червні в Конгресі США також лунали застереження, що модель Gemini від Google відтворювала позицію китайського уряду щодо порушень прав людини в Сіньцзяні та політики Китаю під час пандемії Covid-19.
Дослідниця дезінформації Ніна Янкович, яка працювала з темою LLM grooming, заявила, що використання ChatGPT Grokipedia як джерела викликає схожі побоювання. За її словами, записи Grokipedia, які вона та її колеги аналізували, «у кращому разі спираються на ненадійні джерела, а в гіршому — є погано задокументованою або навмисною дезінформацією».
Крім того, коли LLM цитують такі ресурси, як Grokipedia або мережу Pravda, це може підвищувати їхню довіру в очах читачів.
«Люди можуть подумати: “ChatGPT це цитує, значить, джерело перевірене”, — і підуть туди шукати новини, зокрема про Україну», — зазначила Янкович.
Проблемна інформація, яка вже потрапила в AI-чатботи, часто виявляється складною для видалення. Янкович навела власний приклад: велике медіа використало вигадану цитату, приписавши її їй у матеріалі про дезінформацію. Хоча редакція видалила цитату після звернення, AI-моделі ще певний час продовжували приписувати їй ці слова. «Більшість людей не докладатиме зусиль, щоб з’ясувати, де насправді правда», — підсумувала вона.
На запит про коментар представник xAI, якій належить Grokipedia, відповів коротко: «Традиційні медіа брешуть».
Читайте на ProIT: Inflection, Perplexity і Meta очолили рейтинг дезінформації від AI.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!