Новое исследование показало, что даже кратковременное взаимодействие с искусственным интеллектом может существенно изменить мнение избирателей о кандидате в президенты или предлагаемой политике. Эксперименты, проведенные в США, Канаде и Польше, показали, что чат-боты способны менять предпочтения оппозиционных избирателей на 10 и более процентных пунктов. Убедительность ИИ основана не на психологических манипуляциях, а на способности приводить множество аргументов и фактов в поддержку определенных политических позиций.
В эксперименте, опубликованном в престижном журнале Nature, более 2300 американцев участвовали в текстовой переписке с чат-ботами, поддерживающими кандидатов Дональда Трампа или Камалу Харрис.
По 100-балльной шкале модель искусственного интеллекта в пользу Харрис сместила вероятных избирателей Трампа на 3,9 пункта в пользу Харрис — в четыре раза больше, чем у Трампа.
По 100-балльной шкале модель ИИ, поддерживающая Харрис, сместила вероятных избирателей Трампа на 3,9 пункта в пользу Харрис — в четыре раза больше эффекта традиционной рекламы на выборах 2016 и 2020 годов. Аналогичным образом, модель поддержки Трампа сдвинула вероятных избирателей Харриса на 1,51 пункта.
Аналогичные эксперименты с участием 1530 канадцев и 2118 поляков показали еще более значительный эффект. Боты изменили мнение оппозиционных избирателей примерно на 10 процентных пунктов. Исследователи отмечают, что это особенно важно в контексте политических кампаний и президентских выборов.
Чат-боты использовали различные тактики убеждения, но наибольшую роль сыграло предоставление доказательств и фактов. Когда ботам запретили использовать факты, их убедительность резко упала.
Исследование показало, что точность фактических утверждений в среднем была высокой, но боты, поддерживающие правых кандидатов, с большей вероятностью предоставляли неточную информацию, чем более «левые» боты.
В другом исследовании, в котором приняли участие почти 77 000 участников из Великобритании, ученые обнаружили, что чат-боты, которые подкрепляли свои аргументы большим количеством фактов и прошли дополнительное обучение для повышения своей убедительности, были наиболее убедительными. Участники обсудили с ботами более 700 политических вопросов, а оптимизированная модель смогла изменить голоса избирателей-оппозиционеров на целых 25 процентных пунктов.
В то же время исследование показало и обратную сторону метода: чем сильнее стимулировали чат-бота быть максимально убедительным, тем выше был риск снижения точности информации, поскольку при отсутствии достоверных фактов система начинала фальсифицировать данные.
Ключевое значение фактических утверждений об убедительности ИИ подтверждается еще одной статьей, опубликованной в журнале PNAS Nexus. Аргументы, порождаемые чат-ботом, снизили веру людей в теории заговора. Это происходит даже в тех случаях, когда участники эксперимента были уверены, что общаются с человеком-экспертом. Это показывает, что убедительность обусловлена не авторитетом искусственного интеллекта как такового, а силой и качеством самих сообщений.
Ученые подчеркивают необходимость прозрачных и контролируемых испытаний для разработки этических норм использования ИИ в политике.
` ); const randomIndex = Math.floor(Math.random() * Banners.length); document.getElementById(‘kaldata-random-banner’).innerHTML = баннеры(randomIndex); })();
Комментируйте статью на нашем форуме. Чтобы первыми узнавать самое важное, поставьте лайк нашей странице в Facebook и подпишитесь на нас в Google News, TikTok, Telegram и Viber или загрузите приложение по адресу Калдата.com для Android, iOS и Huawei!

