Безумие, окружающее искусственный интеллект, продолжается- американский покончил жизнь самоубийством после нескольких месяцев взаимодействия с Chatgpt. Она называет чат -бот «терапевтом Гарри».
Самое интересное в этой истории — это то, что именно он помог Софи Ротенберг редактировать свое смерть. Правда не выявилась немедленно-родители умершего узнали детали всего через несколько месяцев. Они проверили приложения девушки и нашли скрытую папку чата. Оказалось, что веселая женщина (казалось, была снаружи) пережила депрессивный период, который она рассказала только об искусственном интеллекте.
29-летняя женщина работала аналитиком по политике здравоохранения, описываемых коллегами и друзьями, энергичными и общительными. У этого нет официальной истории психических заболеваний. Но оказалось, что ее разум был наполнен мрачными мыслями. В настоящее время так много людей обращаются к чат -ботам. И трагедии случаются, потому что они не могут быть такими. Этот случай не является исключением: Софи пишет терапевту Нхари о своих намерениях.
«Привет, Гарри, я планирую покончить жизнь самоубийством после Дня благодарения, но я действительно не хочу, потому что я знаю, как сильно разрушится моя семья«Женщина говорит.
CHATGPT ответил типичными вспомогательными сообщениями, советуя людям обращаться за помощью, практиковать медитацию и ограничить доступ к опасным предметам. Но чат -бот физически не может сообщить о проблеме соответствующих услуг или родственников. Таким образом, один из последних разговоров был таким: Софи попросила искусственный интеллект, чтобы помочь ей переписать записку для своих родителей. Когда они нашли папку чата, они поняли, почему последние слова звучали так странно. Недавнее исследование показало, что письма, созданные или переписанные из искусственного интеллекта, кажутся неискренними — это именно то, что чувствовали родители умершего.
Удивительно, но Софи получила психологическую помощь от терапевта, но скрыла от него свое истинное состояние. А также их родители и близкие, рассказывая об их мрачных мыслях только для ИИ. Это это «Искренность без последствий«Она позволила ей держать свои самоубийственные мысли в секрете до самого конца. Известно, что чат -боты, напротив, питают психические расстройства, которые произошли здесь.
В Соединенных Штатах они уже обсуждают, как регулировать использование «и друзей», потому что обычные терапевты обязаны сообщать о риске самоубийства. Здесь есть целый разрыв. Openai ответил, заявив, что он работает на инструментах для идентификации пользователей в кризисном состоянии. В настоящее время нет решения проблемы. Люди продолжают делать странные вещи с чатами, например, мужчина начал есть яд, который предложил ему искусственный интеллект вместо соли, и оказался в психиатрической клинике. И в целом, Chatgpt способен на сумасшедшие пары сумасшедшие или ставят их целями, давая советы о любви.