Потребители часто приписывают человеческие черты в чаты искусственного интеллекта, воспринимая их как интеллектуальные собеседники, способные дать точный совет. Этот эффект наблюдался еще в прошлом веке. На самом деле, такие модели, как CHATGPT, Claude и Grok, не имеют личностных характеристик: они генерируют ответы на основе статистических моделей в данных обучения, рассматривая слова и концепции как точки в математическом пространстве. Иллюзия индивидуальности создается комбинацией предварительной подготовки, отзывы человека, системных подсказок, контекста, внешних источников и совпадения. Это восприятие может быть опасным, особенно для уязвимых пользователей, которые доверяют реакциям ИИ шаблона в критических ситуациях, таких как проблемы со здоровьем.
Люди склонны приписывать человеческие черты искусственному интеллекту, воспринимая чат -ботов как интеллектуальных собеседников. Например, в статье Ars Technica указывается пример того, как женщина в очереди в почте и показала сообщение сотруднику своего телефона: Chatgpt сообщила ей о несуществующем «обещании лучшей цены» на веб-сайте организации, и она доверяла этому совету больше, чем служанка. Аналогичный эффект наблюдался в 1960 -х годах с примитивным чатботом Элизы, который просто сравнивал закономерности и сформулированные вопросы. Даже если они знали это, пользователи поделились с ним конфиденциальными историями. На самом деле нет никакой личности: за правдоподобными ответами находится статистический генератор текста, который выбирает только вероятные последовательности слов, основанные на предложениях пользователя и данных обучения. У него нет постоянного характера и даже полного понимания ситуации.
Большие языковые модели (LLM), такие как CHATGPT, Claude и Grok, генерируют ответы на основе обучающих моделей. Они рассматривают слова и концепции как точки в математическом пространстве, соединяя их для создания правдоподобного текста. Каждый ответ генерируется на основе пользовательских сигналов и данных обучения — CHATGPT не может «распознавать» факты и беспрепятственно анализировать результаты. Исследования показывают, что поведение этих моделей чрезвычайно нестабильно: результаты могут быть изменены до 76 процентных пунктов из -за малейшего изменения в формулировке запроса.
Кроме того, недавняя работа подтверждает, что LLM не имеет постоянной идентичности: модель редко делает те же выборы в аналогичных сценариях, а ее «личность» сильно зависит от контекста. Это отличает ИИ от людей, которые имеют стабильную идентичность и несут ответственность за свои действия.
Иллюзия личности ИИ может иметь серьезные последствия, особенно в критических областях, таких как здравоохранение. Потребители могут воспринимать чат -ботов как власти и полагаться на шаблоны ответов вместо реальных знаний.