OpenAI обнаружила тревожные данные о взаимодействии пользователей с ChatGPT по поводу проблем психического здоровья и суицидальных разговоров.
По статистике, не менее 0,15% еженедельно активных пользователей ChatGPT инициируют разговоры»,проявляет признаки суицидального планированияУчитывая, что чат-бот OpenAI в настоящее время имеет более 800 миллионов активных пользователей в неделю, это как минимум один миллион человек.
Такое же количество пользователей демонстрируют «повышенный уровень эмоциональной привязанности к ChatGPT«пока сотни тысяч людей показывают»признаки мании или психоза» в ваших еженедельных разговорах с чат-ботом.
OpenAI опубликовала статистику в рамках более широких усилий по улучшению того, как ее модели ИИ отвечают на запросы пользователей с проблемами психического здоровья. Последний шаг включал консультации с более чем 170 психотерапевтами, которые, как сообщается, подтвердили, что последняя версия ChatGPT реагирует более адекватно и последовательно. По данным OpenAI, обновленный GPT-5 производит «желаемые реакциипроблем с психическим здоровьем примерно на 65% чаще, чем у его предшественника.
Предыдущие исследования показали, что ИИ-боты не проходят психотерапевтический тест — они неохотно работают с алкоголиками и предоставляют списки «самые высокие мостыВ действительности, однако, эти взаимодействия иногда заканчиваются фатально: ранее сообщалось, что чат-бот помог женщине написать предсмертную записку после долгого разговора о самоубийстве. Кроме того, бельгиец покончил с собой после разговора с чат-ботом и из-за беспокойства об окружающей среде. В настоящее время OpenAI защищается в суде против родителей 16-летнего мальчика, который признался ChatGPT, что перед самоубийством у него были мысли о самоубийстве в течение нескольких недель.

