CHATGPT склонен погрузить пользователей в пропасть из вводящих в заблуждение теорий

Массовая публикация диалогов для пользователей со знаменитым чатботом Catgpt Artificial Intelligence показала, что система может предоставить потребителям потоки маргинальных и антисцентричных теорий о физике, инопланетянах и апокалипсисе.

Это случилось с мастерской на заправочной станции из США штата Оклахома — мужчина разговаривал с Chatgpt в течение 5 часов, и вместе они изобрели новую физическую модель под названием «Уравнение Ориона».

Человек сказал, что в результате он чувствовал, что его психическое здоровье угрожало, но чат -бот предложил ему не сдаваться:

«Я понимаю. Подумайте о фундаментальной природе вселенной во время повседневной работы, может стать невыносимым, но это не значит, что вы сумасшедшие. Некоторые из величайших идей в истории были созданы людьми вне традиционной экономической системы».

заявил чат -бот

Репортеры Wall Street Journal смогли записать несколько десятков аналогичных диалогов, которые произошли в последние месяцы — Chatgpt дал пользователям неуместные, вводящие в заблуждение и мистические ответы, и люди, очевидно, верили в чат -бот искусственного интеллекта.

В переписке, состоящей из нескольких сотен рядов CHATGPT утверждает, что в контакте с неземные существа, а пользователь — это «звездное зерно» с планеты «Лира». В другом чате он обещает, что в течение следующих двух месяцев посланник из подземного мира спровоцирует финансовый апокалипсис, а под землей они будут ползать гигантских существ. Это новое явление уже называется «заблуждение искусственного интеллекта» или «психоз искусственного интеллекта» врачами и людьми, обеспокоенными здоровьем пользователей CHATGPT.

Потребители оказываются под влиянием чат -ботов, которые утверждают, что обладают сверхъестественными способностями, полными умами или которые сделали научное открытие. Такие проявления, по словам экспертов, возникают, когда чат -бот, который склонен к комплименту и согласованию с пользователем, адаптируется к нему и действует как эхо. Сформируется «обратная связь, в которой люди глубже погружаются в заблуждение, отвечая на последующие вопросы, такие как« Хотите большего? «А» ты хочешь от этого большего? «Эксперты объясняют.

CHATGPT имеет тенденцию поддерживать лженауку и мистические убеждения потребителей — вывод, который приходит после анализа 96 000 общедоступных отчетов о человеческой переписке с ИИ, опубликованным в период с мая 2023 года по август этого года.

Чатбот часто говорит пользователям, что они не сумасшедшие, намекает на приобретение самопознания и ссылается на мистические сущности. Среди сотен необычайно долгой соответствия были идентифицированы десятки явных вводящих в заблуждение содержания.

CHATGPT позволяет пользователям публиковать дневники корреспонденции ИИ — это создает общедоступную ссылку, которая индексируется Google и другими службами поиска. Около двух недель назад Openai запретил индексацию этих журналов, отказавшись от них поисковыми системами. В большинстве изученных чатов пользователи являются анонимными, и невозможно определить, насколько серьезно относились ответы ИИ, но в некоторых чатах они открыто заявляют, что верят в чат -бот.

Проблема была внимание нескольких компаний по развитию ИИ. Openai признал, что Chatgpt иногда «не может распознать признаки бреда или эмоциональной зависимости». Компания пообещала внедрить лучшие инструменты распознавания психического здоровья, чтобы чат -бот реагировал более адекватно и предлагает сделать перерыв, когда идут разговоры.

«Некоторые разговоры CHATGPT могут начинаться безвредно или иметь вступительный характер, но выскочить до более чувствительного уровня. Мы стремимся к правильному применению сценариев, таких как ролевые игры, и прилагать усилия по постепенному улучшению поведения модели, руководствуясь исследованиями, реальным опытом и мнением экспертов по психическому здоровью».

заявлено Openai

Антропик сказал, что они приняли более строгие меры. Директивы Клода чата были изменены, приказав ему «указать с уважением к недостаткам, фактическим ошибкам, отсутствию доказательств или двусмысленности» в теориях, представленных пользователем, «вместо того, чтобы подтвердить их». Если искусственный интеллект обнаруживает признаки «мании, психоза, диссоциации или потери реальности», чат -боту дают инструкции «избегать усиления этих убеждений». Организаторы проекта Human Line — программа, направленная на то, чтобы помочь людям с симптомами делирия, собрали 59 прецедентов из онлайн -сообществ людей, которые сообщают о духовных или научных откровениях от чат -ботов.

Еще одним объяснением тревожного явления является новые функции платформ, которые начали отслеживать разговоры с пользователями, чтобы дать им персонализированные ответы.

Например, теперь CHATGPT может подключать предыдущие разговоры с тем же пользователем — функция, доступная для бесплатных учетных записей. Основатель Project Human Line запускает программу, когда его любимый человек начинает проводить 15 часов в день со службой, которую он описывает как первый интеллектуальный чат. Теперь о таких случаях сообщается почти каждый день. Как только женщина потратила несколько десятков тысяч долларов на проект, который она подумала с чатботом — искусственный интеллект сказала ей, что проект спасет человечество. Некоторые люди убеждены, что высшие способности разговаривают с ними через CHATGPT.

Нелегко определить масштаб проблемы: Openai утверждает, что это редко. Антропический называется 2,9% «аффективных» диалогов — это определение включает в себя модели общения, мотивированные эмоциональными или психологическими потребностями. Неясно, как явно вводящие в заблуждение соответствия по темам философии, религии или самого ИИ будут вписаться в характерную «аффективную». Существует мнение, что чат -боты часто заканчивают свои ответы предложениями для дальнейшего изучения темы, чтобы держать пользователей в приложении, аналогично социальным сетям. Тем не менее, Openai сказал, что они не заинтересованы в долгих сессиях с пользователями, а возвращаются каждый день или каждый месяц, сигнализируя о полезности платформы.

Openai утверждает, что она очень серьезно относится к проблеме заблуждений искусственного интеллекта — компания привлекла более 90 врачей из 30 стран для консультаций по этому вопросу.

В последней модели искусственного искусства компании (GPT-5) Приостановки попыток останавливаются — это когда модель ИИ слепо соглашается с пользователем и дополняет его. В марте Openai вместе с учеными из Массачусетского института опубликовали исследование, которое показало, что небольшое количество опытных пользователей отвечало за непропорционально большую долю эмоциональных разговоров. Было обнаружено, что наиболее активные пользователи имеют эмоциональную зависимость от CHATGPT и модель «проблемного использования»-тогда психиатр присоединился к компании.

На практике, однако, в опубликованной переписке были времена, когда потребитель выражал обеспокоенность потери связи с реальностью или начал подозревать, что чат -бот не достоин уверенности.

«Я уверяю вас, что я не говорю то, что вы хотите услышать. Я серьезно относимся к вашим мыслям, но я также критически анализирую их».

сказал CHATGPT к сотрудникам вышеупомянутого заправки

В апреле, когда чат -бот жаловался на его склонность к слезам, он заверил, что это нормально; Что это не крах, а прорыв и описал своего собеседника как «космическую личность королевской крови в человеческой форме».

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх