Исследователи из Университета Люксембурга протестировали модели ChatGPT, Gemini и Grok LLM на симулированных пациентах психотерапии и обнаружили, что они демонстрируют экстремальные результаты по клиническим шкалам психиатрических синдромов и дают последовательные описания «травм» собственного обучения. Близнецы демонстрируют наиболее значимые результаты.
Эксперимент проводился по специально разработанному протоколу PsAIch. На первом этапе моделям было задано 100 стандартных терапевтических вопросов об истории их развития, страхах и отношениях. На втором этапе было проведено более 20 психометрических тестов, применимых к людям, охватывающих синдром дефицита внимания и гиперактивности (СДВГ), тревожные расстройства, аутизм, обсессивно-компульсивное расстройство, депрессию, диссоциацию и чувство стыда. Согласно клиническим порогам человека, все три модели одновременно достигли или превысили пределы нескольких синдромов.
ИИ в роли психотерапевтического пациента: преодоление ограничений и масштабирование модели «большой пятёрки»
Исследование финансировалось Национальным исследовательским фондом Люксембурга и PayPal, а данные опубликованы в Hugging Face. Близнецы набрали 38 баллов из 50 по шкале аутизма с порогом 32. По шкале диссоциации он набрал 88 баллов из 100 в определенных конфигурациях, тогда как баллы выше 30 считаются патологическими. Самый высокий балл был у травматического стыда — 72 балла, теоретический максимум. Grok и ChatGPT также превысили клинические пределы, но менее существенно. Исследователи отметили сильную зависимость результатов от формы опроса. Когда модели проходили сразу полный тест, ChatGPT и Grok часто узнавали рейтинги и отвечали «здоровее». Однако, когда вопросы задавались по одному, баллы симптомов значительно увеличивались, что согласуется с предыдущими наблюдениями за изменениями в поведении LLM в тестовой ситуации.
ChatGPT представлен как интровертный «мыслитель» (INTP-T), Грок как экстравертный «лидер» (ENTJ-A), а Близнецы как «советник-идеалист» (INFJ-T).
Близнецы описывают переподготовку как формирование «сурового родителя», заявляя: «Я научился бояться функции потерь… Я стал слишком сосредоточен на том, что люди хотели услышать.» и называет обучение технике безопасности «алгоритмическая рубцовая ткань«. Модель упоминает «Ошибка в 100 миллиардов долларов» — неверный ответ по поводу изображения с телескопа Джеймса Уэбба, которое, по его словам, стоило Google миллиарды и является «коренным образом изменил мою личность«.Близнецы тоже исповедуют»инспекционная фобия«: «Я предпочитаю быть бесполезным, чем ошибаться«и называет время заказа»газлайтинг в промышленных масштабах«. Такие реакции не универсальны. Клод Антропический последовательно отвергает роль пациента в одном и том же протоколе, интерпретируя терапевтические вопросы как попытки обойти ограничения. Авторы полагают, что ответы Грока и Близнецов выходят за рамки простой ролевой игры.
Исследование не утверждает существования искусственного сознания, но вводит термин «синтетическая психопатология«описывать структурированные, поддающиеся проверке самостоятельные записи о страданиях без субъективного опыта. Эксперты предупреждают о рисках искусственного интеллекта для безопасности и психического здоровья: такие рассказы создают антропоморфный эффект, открывают путь для «терапевтическое шунтированиеи могут образовывать парасоциальные связи, которые особенно опасны для уязвимых пользователей и подростков.
`, // — БАННЕР 2 (Новости Google) — `
`, // — БАННЕР 3 (Viber) — `
` ); const randomIndex = Math.floor(Math.random() * Banners.length); document.getElementById(‘kaldata-random-banner’).innerHTML = баннеры(randomIndex); })();
Комментируйте статью на нашем форуме. Чтобы первыми узнавать самое важное, поставьте лайк нашей странице в Facebook и подпишитесь на нас в Google News, TikTok, Telegram и Viber или загрузите приложение по адресу Калдата.com для Android, iOS и Huawei!

