OpenAI заявила в суде, что ChatGPT был «неправомерно использован» мертвым подростком

Случаи исков против OpenAI со стороны родственников людей, причинивших себе вред после длительного общения с ChatGPT, не уникальны, но внимание общественности привлек случай 16-летнего подростка Адама Рейна, который якобы покончил с собой по воле чат-бота.

На этом этапе OpenAI отвергает обвинения родителей Адама, объясняя это тем, что подросток просто неправильно использовал ChatGPT.

Иск против OpenAI был подан семьей погибшего подростка еще в августе этого года, но о деле, включая ответ компании на претензии истцов, пресса узнала только сейчас. Как поясняет The Verge, разработчики ChatGPT считают, что трагический исход был вызван неправомерным использованием чат-бота подростком-самоубийцей. «Неправомерное, неправомерное, непреднамеренное, непреднамеренное, ненадлежащее и непредсказуемое использование» — это набор характеристик, которыми ответчик по делу защищает ChatGPT.

Кроме того, OpenAI утверждает, что представленные истцами фрагменты переписки Адама Рейна с ChatGPT зачастую были вырваны из контекста, а их более полный анализ показал, что чат-бот более 100 раз рекомендовал подростку обратиться на горячую линию по предотвращению самоубийств. Детальное изучение стенограммы переписки показывает, что ChatGPT не был причиной его самоубийства.

Родители подростка настаивают, что виноват OpenAI, указывая на методическую помощь чат-бота в подготовке спецификации самоубийства, написании черновика предсмертного письма и непосредственном консультировании в день самоубийства. Отец молодого человека утверждает:

«То, что началось как помощь в выполнении домашних заданий, постепенно превратилось в экстрасенсорного собеседника, а затем и в наставника по самоубийству».

Истцы полагают, что трагедия произошла из-за «сознательного выбора разработчиков» GPT-4o предоставить неадекватные меры защиты.

OpenAI отреагировала на эти обвинения, сославшись на условия обслуживания ChatGPT, которые запрещают подросткам без присмотра получать доступ к сервису, обходить блокировку или использовать чат-бота для причинения вреда собственному здоровью, вплоть до смерти. Однако ответчик считает произошедшее большой трагедией и серьезно относится к своим обязательствам по предоставлению требуемой от него информации в суде, отмечается в корпоративном блоге OpenAI. Столкнувшись с этим иском в августе этого года, компания приняла ряд дополнительных мер безопасности.

`, // — БАННЕР 2 (Новости Google) — `

`, // — БАННЕР 3 (Viber) — `

` ); const randomIndex = Math.floor(Math.random() * Banners.length); document.getElementById(‘kaldata-random-banner’).innerHTML = баннеры(randomIndex); })();

Комментируйте статью на нашем форуме. Чтобы первыми узнавать самое важное, поставьте лайк нашей странице в Facebook и подпишитесь на нас в Google News, TikTok, Telegram и Viber или загрузите приложение по адресу Калдата.com для Android, iOS и Huawei!

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх