Социальные сети скоро будут наводнены чат-ботами с искусственным интеллектом, предупреждают ученые

В обозримом будущем социальные сети могут начать подвергаться массовым атакам со стороны чат-ботов с искусственным интеллектом, которые имитируют поведение человека и пользуются склонностью обычного человека следовать за толпой. Они смогут распространять ложную информацию, преследовать пользователей и влиять на политические процессы.

Подобные массовые рейды грозят стать новым оружием в информационных войнах. Чат-боты с искусственным интеллектом смогут имитировать поведение человека, тем самым избегая обнаружения и создавая иллюзию естественного онлайн-передвижения.

Человеческий инстинкт часто подсказывает нам следовать «мудрости» большинства, но в данном случае этот механизм будет приводиться в движение волей владельца чат-бота с искусственным интеллектом, действующего от имени неизвестного человека, группы, политической партии, компании или государственного деятеля, предупреждает норвежский профессор Йонас Кунст. Тех, кто отказывается присоединиться к виртуальной мафии, могут преследовать те же боты ИИ, которые стремятся подавить аргументы, противоречащие их повествованию.

Исследователи не назвали точных сроков прибытия таких «роев» чат-ботов с искусственным интеллектом, но предупредили, что их обнаружить будет непросто — нельзя даже утверждать, что они еще не начали свою деятельность в социальных сетях. Угроза массовых атак усиливается тем фактом, что наши цифровые экосистемы уже ослаблены «эрозией рационально-критического дискурса и отсутствием общего понимания реальности среди граждан». Примитивные чат-боты с искусственным интеллектом уже генерируют более половины всего веб-трафика, но они пока способны выполнять лишь базовые задачи, такие как размещение одного и того же подстрекающего сообщения — их легко обнаружить, и для управления такими ботами нужны операторы.

Чат-боты с искусственным интеллектом, основанные на больших языковых моделях, окажутся гораздо более сложными — они будут достаточно сложными, чтобы адаптироваться к онлайн-сообществам, в которые они проникают, и представлять наборы отдельных личностей, сохраняющих свою память и индивидуальность. Это будет своего рода «самодостаточный организм, способный координировать свои действия, учиться, адаптироваться с течением времени и, таким образом, специализироваться на эксплуатации уязвимостей человека», подчеркивает профессор Кунст.

Угроза больше не является гипотетической. В прошлом году администрация сообщества Reddit пригрозила подать в суд на исследователей, которые использовали чат-ботов с искусственным интеллектом в эксперименте по манипулированию мнением четырех миллионов пользователей в одном разделе.

Согласно предварительным результатам исследования, ответы чат-ботов были в 3–6 раз убедительнее, чем сообщения реальных людей.

Учитывая, что агенты ИИ могут вести беспощадную кампанию круглосуточно, пользователи социальных сетей не смогут противостоять им в одиночку. Однако администрациям платформы необходимо присутствие реальных пользователей, поэтому ожидается, что в ближайшее время будут доступны средства улучшенной аутентификации учетных записей. Это значит, что людям придется доказывать, что они люди. Но это не панацея: в некоторых странах анонимность является средством защиты политических инакомыслящих. Хотя аутентификация значительно усложнит задачу злоумышленникам.

Альтернативные меры включают схемы сканирования трафика в режиме реального времени для обнаружения статистических аномалий и создание сообщества профессионалов и учреждений для расследования и реагирования на эти атаки, а также повышения осведомленности общественности о проблеме. Игнорирование таких средств грозит сорвать выборы и другие важные события.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх