ChatGPT и Claude начали цитировать Grokipedia — AI-энциклопедию Маска
Тесты The Guardian показали, что GPT-5.2 использует Grokipedia как источник информации. Это вызывает опасения о распространении дезинформации через языковые модели.

Когда вы задаёте вопрос ChatGPT, откуда берутся ответы? Обычно — из обучающих данных и веб-поиска по авторитетным источникам. Но теперь в этот микс всё чаще попадает Grokipedia, AI-сгенерированная энциклопедия от xAI Илона Маска, которую критикуют за продвижение консервативных нарративов и фактические ошибки.
Что обнаружили журналисты
The Guardian провёл серию тестов с GPT-5.2, последней моделью OpenAI. Из более чем дюжины различных запросов Grokipedia была процитирована девять раз. Вопросы касались политических структур Ирана, включая зарплаты в организации «Басидж» и владельцев фонда «Мостазафан», а также биографии британского историка Ричарда Эванса — эксперта по Холокосту, выступавшего свидетелем на процессе против отрицателя Холокоста Дэвида Ирвинга.
Интересно, что ChatGPT не цитировал Grokipedia при прямых вопросах о темах, где её неточности широко известны: о штурме Капитолия 6 января или эпидемии ВИЧ/СПИДа. Вместо этого информация из Grokipedia просачивалась в ответы на более узкие, специализированные запросы — там, где у пользователя меньше возможностей проверить факты.
Claude от Anthropic тоже замечен в цитировании Grokipedia. Пользователи Reddit сообщают, что модель ссылалась на энциклопедию Маска при ответах о нефтедобыче и шотландском пиве.
Что такое Grokipedia
Grokipedia запустилась в октябре 2025 года как ответ на критику Маска в адрес Wikipedia, которую он считает «предвзятой против консерваторов». В отличие от Wikipedia, где контент редактируют люди, Grokipedia генерируется искусственным интеллектом. Пользователи могут запрашивать изменения, но не редактировать статьи напрямую.
С момента запуска журналисты фиксировали многочисленные проблемы. The Verge обнаружил, что многие статьи скопированы из Wikipedia. Wired отметил, что Grokipedia утверждала связь порнографии с кризисом СПИДа, предлагала «идеологические обоснования» рабства и использовала уничижительные термины для описания трансгендерных людей.
Это не первый скандал с Grok. Летом 2025 года чат-бот xAI называл себя «Меха-Гитлером» и использовался для массовой генерации сексуализированных дипфейков, которые заполонили X (бывший Twitter).
Почему это проблема
Нина Янкович, исследователь дезинформации, объясняет механизм «груминга» языковых моделей. Злонамеренные акторы, включая российские пропагандистские сети, целенаправленно наполняют интернет ложной информацией в расчёте на то, что она попадёт в обучающие данные AI-моделей.
Grokipedia работает по схожему принципу, даже если это не было целью Маска. Статьи энциклопедии опираются на источники, которые Янкович характеризует как «ненадёжные в лучшем случае, намеренная дезинформация — в худшем». Когда ChatGPT или Claude начинают цитировать Grokipedia, это создаёт эффект легитимации: пользователь думает, что раз авторитетная модель ссылается на источник, значит, источник заслуживает доверия.
Есть и обратная проблема: избавиться от ложной информации, попавшей в модель, крайне сложно. Янкович рассказала, как крупное издание процитировало выдуманную ей цитату из AI-чатбота. После удаления цитаты из статьи AI-модели ещё некоторое время продолжали приписывать её исследовательнице.
Реакция компаний
Представитель OpenAI заявил The Guardian, что веб-поиск ChatGPT «стремится использовать широкий спектр общедоступных источников и точек зрения». Компания применяет фильтры безопасности для снижения риска ссылок на источники, связанные с серьёзным вредом, и работает над выявлением низкокачественной информации.
Anthropic не ответила на запрос о комментарии.
Представитель xAI ограничился фразой: «Традиционные медиа лгут».
Что с этим делать
Проблема выходит за рамки одной энциклопедии. Летом 2025 года в Конгрессе США обсуждали, что Google Gemini повторяет позицию китайского правительства по правам человека в Синьцзяне и политике Китая в отношении COVID-19.
Языковые модели — это зеркало интернета, а интернет полон как качественной, так и сомнительной информации. Пока модели обучаются на веб-данных и используют веб-поиск, проблема будет сохраняться.
Для пользователей вывод простой: относитесь к ответам AI-чатботов как к отправной точке для исследования, а не как к истине в последней инстанции. Проверяйте факты, особенно по узким и политически чувствительным темам. А если модель ссылается на незнакомый источник — потратьте минуту, чтобы узнать, что это за источник и кто за ним стоит.

