CHATGPT возник серьезное преступление и включил OpenAI в скандале GDPR

Норвежский Арв Хиалмар Холмен был шокирован посланием в Чатгпте, в котором искусственный интеллект обвиняет его в убийстве своих троих детей. В то же время текст включал реальную информацию о проживании и его семье, которая еще больше усилила драму ситуации.

Инцидент стал предметом юридической апелляции — организация по защите прав NOYB подала заявление в Норвежское управление по защите данных, заявив, что OpenAI нарушила статью 5 общего положения о защите данных (GDPR).

Основное внимание в жалобе состоит в том, что личные данные, даже если они используются в II-модели, должны быть надежными. Noyb отметил, что закон не является исключением из искусственного интеллекта — ошибка в его данных остается нарушением, независимо от технологических ограничений. Организация считает, что в случае с Холманом Openai имеет смешанные фиктивные и истинные элементы, которые усугубляют природу нарушения.

Проблема усугубляется тем фактом, что компания не предоставляет пользователям возможность исправить неправильную информацию. Ранее NOYB указал, что CHATGPT, в отличие от традиционных услуг, не позволял пользователям редактировать ложную информацию. Вместо этого OpenAI добавил только предупреждение о возможных ошибках в интерфейс чат -бота, который, по словам адвокатов, не освобождает компанию от ответственности.

Адвокаты просят норвежского регулятора вынесения постановления суда, который может обязывать компанию изменить свои алгоритмы, ограничить обработку личных данных Холмана или навязывать штраф. Тем не менее, OpenAI может иметь спор в своей защите — NOYB признал, что новые версии CHATGPT, связанные с Интернетом, больше не генерируют ложную информацию о Холмене. Это означает, что проблема, по крайней мере, на уровне пользовательского интерфейса, была решена.

Тем не менее, в жалобе говорится, что соединение с исходным разговором все еще доступна, что означает, что ложная информация могла храниться в системах Openai и даже использовалась для предварительного обучения I-модели.

Это, по словам NOYB, показывает продолжающееся нарушение, несмотря на внешние корректировки. Адвокаты подчеркивают, что устранение доступа к ложной информации не означает прекращение его обработки — компании не имеют права «скрывать» ошибку, не исправляя ее в системе.

Решение о жалобе было предоставлено норвежским регулирующим органам, но ситуация уже показывает растущее давление на разработчиков искусственного интеллекта в контексте точности и законности обработки личных данных. Развитие AI-моделей требует новых подходов к ответственности и уважения к правам человека, даже если ложь поступает от машины, кто-то должен нести ответственность за это.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх