ИИ научился идеально имитировать людей, что стало угрозой для результатов опросов

К длинному списку тем, которыми может манипулировать искусственный интеллект, присоединились опросы общественного мнения и опросы. Новое исследование показывает, что эта технология может почти идеально имитировать людей, обходя стандартные меры безопасности, предназначенные для обнаружения ботов. Исследование Дартмутского университета демонстрирует, как продвинутый искусственный интеллект может искажать данные опросов в масштабах, достаточных для фальсификации результатов.

Автономный синтетический респондент, основанный на большой языковой модели (LLM), созданной Шоном Вествудом, доцентом менеджмента Дартмутского университета и автором статьи, смог обойти системы обнаружения ботов в онлайн-опросах. Используя подсказку из 500 слов, ИИ создает личность на основе сгенерированных демографических данных, таких как возраст, пол, раса, образование, доход и место проживания. Чтобы избежать автоматического обнаружения, бот имитировал реалистичное время чтения на основе уровня образования сгенерированного персонажа, делал движения мыши, похожие на человеческие, и писал ответы на открытые вопросы посимвольно, даже делая правдоподобные опечатки и исправления.

В ходе более чем 43 000 тестов ИИ убедил 99,8% систем, что он человек. Он не допустил ошибок в логических головоломках и тестах reCAPTCHA, а также сумел избежать задач, которые ИИ мог легко выполнить, а люди — нет.

Согласно данным, потребуется всего от 10 до 52 ложных ответов искусственного интеллекта, чтобы изменить результаты семи крупных национальных опросов перед выборами 2024 года. Стоимость внедрения автоматических ответов составит всего 5 центов за каждый, по сравнению с обычными 1,50 долларами, которые люди платят за заполнение опроса. Также вызывает беспокойство тот факт, что боты смогли предоставить безупречные ответы на английском языке, даже если они были запрограммированы на русском, китайском или корейском языках, что подчеркивает, насколько легко иностранные участники могут манипулировать результатами опроса.

Этот агент ИИ представляет собой не зависящую от модели программу, написанную на Python, поэтому ее можно реализовать с использованием API-интерфейсов от компаний, занимающихся ИИ, или запускать локально с моделями с открытым исходным кодом, такими как Llama. В ходе тестов в основном использовалась модель OpenAI o4-mini, а для некоторых задач использовались модели DeepSeek R1, Mistral Large, Claude 3.7 Sonnet, Grok3 и Gemini 2.5 Preview.

Искусственный интеллект также может оказать огромное влияние на научные исследования, основанные на данных, собранных через онлайн-платформы.

«Мы больше не можем быть уверены, что ответы на опросы исходят от реальных людей.— говорит Вествуд.Поскольку данные испорчены ботами, ИИ может отравить всю экосистему знаний.Вествуд предупредил, что научное сообщество должно разработать способы сбора данных, которыми невозможно манипулировать с помощью современных инструментов искусственного интеллекта.

«Технология проверки реального участия человека существует; нам просто нужна воля, чтобы реализовать это«, говорит он.»Если мы будем действовать сейчас, мы сможем сохранить как честность выборов, так и демократическую подотчетность, которую они обеспечивают.«

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх