Ученые уже много лет говорят о возможности создания цифровой копии человеческой личности в виде искусственного интеллекта. Это означает, что искусственный интеллект может приобрести ту же манеру общения, взгляды на жизнь, чувство юмора и другие черты, что и у копируемого человека. Поначалу эта идея показалась слишком фантастической, но теперь, благодаря исследованиям экспертов Google и Стэнфордского университета, действительно возможно создать ИИ-копию любого человека, причем всего за два часа. Такой подход позволяет искусственному интеллекту воспроизводить личность с точностью до 85%.
Как на самом деле работают ИИ-копии людей?
В настоящее время интеллект искусственного интеллекта используется в различных сферах человеческой деятельности. Например, он создает новые лекарства, помогает археологам расшифровывать древние тексты и даже помогает полиции поддерживать порядок. Но, по мнению экспертов, сферы применения искусственного интеллекта можно расширить гораздо больше. И создание цифровых копий людей — еще один шаг к достижению этой цели.
Исследование, опубликованное 15 ноября, показывает, что достаточно провести двухчасовое интервью с человеком, чтобы создать его цифровую копию. Эти данные используются для обучения генеративной модели искусственного интеллекта, способной воспроизводить поведение и личностные характеристики своего прототипа в реальной жизни.
Чтобы оценить точность полученных моделей ИИ, ученые провели серию тестов. Участники исследования заполняют анкеты, проходят личностные опросы, участвуют в социальных и логических играх. Две недели спустя те же тесты прошли их ИИ-коллеги. Результаты показывают, что искусственный интеллект воспроизводит ответы с точностью 85%.
Создание цифровых личностей
Для исследования команда набрала более 1000 человек. Вопросы, которые им задавали при создании цифровой копии, были связаны с жизненными ценностями, личным опытом и взглядами на социальные проблемы. Авторы использовали, например, Общее социальное исследование (Общий социальный опрос), чтобы изучить социальные отношения, тест «Большой пятерки» (Личностный тест «Большая пятерка») определить основные черты характера.
Кроме того, участникам были предложены логические игры, такие как Игра Диктатор (Игра «Диктатор») и Доверительная игра (Игра на доверие), оценивающая поведение в ситуациях, связанных с распределением ресурсов. Такой подход позволил искусственному интеллекту учитывать тонкости, которые невозможно обнаружить с помощью стандартных анкет.
Использование реплик ИИ в научных исследованиях
Зачем вообще создавать цифровые копии людей? Дело не только в том, что люди могут лучше использовать, например, своих цифровых помощников. Клоны ИИ открывают новые горизонты для изучения человеческого поведения. Эти модели могут применяться в различных областях. Например, ИИ позволяет проверить, как люди будут реагировать на новые законы, общественные кампании и изменения в социальной политике.
Компании также могут предсказывать реакцию аудитории при запуске новых продуктов и услуг. По мнению экспертов Клоны ИИ помогут изучать поведение человека в сложных условиях, например, во время стихийных бедствий или экономических кризисов, без каких-либо реальных рисков.
По мнению Джун Сон Пака, ведущего автора исследования, их возможно создать в будущем. несколько цифровых «клонов» одного человека, способных принимать те же решения, что и оригинал. Все это предоставит исследователям уникальный инструмент для моделирования реакций человека в различных ситуациях.
Почему искусственный интеллект не может полностью скопировать человека
Несмотря на свои успехи, технология воспроизводства личности с помощью искусственного интеллекта имеет свои недостатки. Самой большой проблемой для ИИ остается моделирование поведения в социальных взаимодействиях, таких как экономические игры. Здесь необходимо учитывать множество факторов, включая социальную динамику и контекст, который все еще слишком сложен для ИИ.
Кроме того, технология создания клонов ИИ вызывает опасения по поводу возможных злоупотреблений.. В мире уже есть случаи, когда искусственный интеллект и технологии deepfake использовались для мошенничества, манипулирования и кражи личных данных.
Созданные цифровые удостоверения могут быть использованы для обмана людей или манипулирования их решениями. Исследователи подчеркивают необходимость строгого контроля за разработкой и использованием этих технологий.
В целом, по мнению экспертов, создание ИИ-копии человека — это не только шаг вперед в развитии технологий, но и возможность заглянуть в будущее человечества. Однако для того, чтобы эти технологии принесли пользу, а не вред, необходимо создать четкие рамки их внедрения. Только тогда мы сможем превратить искусственный интеллект в инструмент, помогающий человечеству, а не создающий новые риски.
«Наша архитектура уменьшает предвзятость в точности расовых и идеологических групп по сравнению с агентами, имеющими только демографические описания. Эта научная работа закладывает основу для новых инструментов, которые помогут изучать индивидуальное и коллективное поведение», — говорят авторы нового подхода.