Впервые за 75 лет искусственный интеллект успешно прошел тест человечества.
Исследователи из Калифорнийского университета в Сан-Диего провели крупномасштабный тест, который привел к двум моделям современного языка GPT-4.5 и Llama-3.1-405b-успешно прошел классический тест Тьюринга, вводящие в заблуждение людей и заставляя их поверить, что они общаются с человеком.
Эксперимент был использован Трехпорный формат: Человеческий собеседник общается одновременно с двумя участниками — настоящим человеком и искусственным интеллектом — и тогда он должен определить, кто он. Исследование было проведено на двух независимых группах добровольцев — студентов и участников университета и участников плодотворной платформы.
Результаты поразительны GPT-4.5, которые должны подражать человеку, в 73% случаев (!) Считается живым собеседником, превосходящим настоящих участников человека. Модель LlaMa-3.1 с той же обстановкой убедит своих собеседников в его человечестве в 56% случаев, почти так же, как и реальные люди.
Основные модели без особой обстановки для «человечества» показали гораздо худшие результаты. GPT-4O и ранняя программа Eliza были признаны искусственными в большинстве случаев, и только 21% и 23% соответственно.
Исследование впервые после 75-летнего существования теста Тьюринга показывает, что искусственные системы могут пройти этот классический тест на интеллект. Алан Тьюринг предложил его в 1950 году, чтобы определить, могут ли машины продемонстрировать разумное поведение, неразличимое человеком.
Интересно, что только 12% участников проверили своих собеседников на получение знаний или логики — что традиционно считается признаком интеллекта. Большинство из них рассматривали социальные, эмоциональные и культурные аспекты общения, такие как естественность языка или наличие личных качеств.
Современные модели оказались способными не только вести диалог как живых собеседников, но и сделать его более убедительным, чем сами люди. Исследователи отмечают, что для достижения успеха модели должны были быть настроены на конкретный образ — молодой, относительно замкнутый человек, который заинтересован в интернет -культуре.
Результаты имеют важные практические последствия. Они показывают, что сегодняшние общедоступные языковые модели могут осторожно заменить людей в относительно короткие разговоры. Эти системы могут автоматизировать работу, которая требует коротких человеческих взаимодействий или для имитации социальных отношений — от случайных разговоров с незнакомцами до бесед с друзьями, коллегами и даже романтическими партнерами.
Авторы исследования предупреждают о возможных негативных последствиях. «Фальшивые люди«Системы, которые могут убедительно подражать людям — представляют риск, поскольку их можно использовать для манипулирования, распространения дезинформации и социальной инженерии. Люди могут проводить больше времени с этими имитациями человеческого взаимодействия, что может потенциально обесценивать истинные человеческие отношения.
Исследование также показало, что способность распознавать ИИ была почти идентична различным группам людей-даже тех, кто работает с языковыми моделями ежедневно, не делают намного лучше. Однако некоторые стратегии, такие как попытки «взломать» модель, оказались более эффективными.
Тест Тьюринга не является статической оценкой — результаты его неизбежно связаны с изменением восприятия людей как для машин, так и для самих себя. Поскольку машины становятся лучше в подражании нашему поведению, различия между нами могут стать более значимыми.
«Хотя тест Тьюринга сейчас впервые, это не последний раз, когда люди будут иметь возможность добиться успеха в нем», — заключают ученые.
Они предполагают, что мы можем научиться лучше заметить тонкие признаки, которые делают нас уникально человеческими.