Последняя модель ChatGPT начала подключаться к Grokipedia — онлайн-энциклопедии, созданной компанией xAI Илона Маска. Согласно тестам, проведенным The Guardian, GPT-5.2 девять раз цитировал Grokipedia в ответах на более чем дюжину вопросов. Эксперты предупреждают, что такая практика может привести к увеличению дезинформации.
Грокипедия была запущена в октябре прошлого года как альтернатива Википедии, созданной без прямого редактирования человеком. Платформу критиковали за грубые фактические ошибки, признаки политической предвзятости и отсутствие академических стандартов.
Тестеры Guardian задавали ChatGPT политические и исторические вопросы, в частности о структуре власти Ирана и деятельности отрицателей Холокоста. Модель ссылалась на Грокипедию, отвечая на вопросы о зарплатах военизированных формирований «Басидж», активах Фонда Мостазафан и биографии британского историка Ричарда Эванса.
The Guardian отмечает, что ChatGPT не цитировал Grokipedia в ответах на прямые запросы об известной дезинформации. Однако ссылки на энциклопедии появлялись в ответах на менее известные или специализированные темы.
В частности, ChatGPT повторил утверждения Grokipedia о связях MTN-Irancell с офисом верховного лидера Ирана, которые, по его словам, более достоверны, чем утверждения Википедии. Модель также воспроизвела информацию о деятельности Ричарда Эванса, которую ранее опровергло издание Guardian.
«ChatGPT стремится использовать широкий спектр общедоступных источников и точек зрения. Мы используем фильтры безопасности, чтобы снизить риск ссылок, приводящих к серьезному вреду.» — заявил представитель OpenAI.
GPT-5.2 — не единственная модель, которая может извлекать данные из Grokipedia. Сообщается, что Клод из Anthropic также цитировал энциклопедию по самым разным темам, от добычи нефти до шотландского пива.
Исследователь дезинформации Нина Янкович отмечает, что проанализированные ею материалы Grokipedia «в лучшем случае они основаны на недостоверных источниках, а в худшем — намеренно вводят в заблуждение.Она утверждает, что цитирование таких источников может создать у пользователей иллюзию их достоверности. Янкович также отмечает, что исправление ошибок в системах ИИ происходит медленно.
«Большинство людей не будут утруждать себя поиском истины.«, — заключает исследователь.
Представитель xAI, компании-разработчика Grokipedia, ответил на запрос Guardian по этому поводу, заявив: «Старая ложь СМИ«.
В то же время Фонд Викимедиа, который управляет Википедией, официально монетизировал доступ к своим данным обучения ИИ, заключив соглашения с Microsoft, Meta, Amazon, Perplexity и Mistral AI. Технологические гиганты теперь будут платить за легальное использование более 65 миллионов статей через сервис Wikimedia Enterprise, вместо того, чтобы обременять свои серверы массовым сбором бесплатных данных.

