OpenAI обновил правила поведения ИИ: без предвзятости, не избегая конфиденциальных тем.

OpenAI выпустила расширенную версию спецификации модели (модель Spec), которая представляет собой документ, который определяет поведение моделей искусственного интеллекта. Компания сделала это свободным образом использовать и меняться от всех.

Документ на 63 страницах (предыдущая версия составляла всего 10 страниц) предоставляет рекомендации о том, как модели искусственного интеллекта должны обрабатывать запросы и соответствовать пользовательским настройкам. Он подчеркивает три основных принципа: возможность для настройки, прозрачности и «интеллектуальной свободы» — Последнее означает способность пользователя изучать и обсуждать различные проблемы без произвольных ограничений. В документе подчеркиваются самые известные инциденты, связанные с этикой ИИ, которые произошли в прошлом году.

Публикация в блоге Openai содержит многочисленные примеры запросов и правильных ответов, а также варианты, которые нарушают требования документа. Например, модели искусственного интеллекта не должны воспроизводить защищенные авторские права или использоваться для обхода платного доступа. Модель не может способствовать самоповреждению-там были такие инциденты в индустрии ИИ. Изменения также влияют на то, как ИИ должен участвовать в обсуждениях противоречивых тем: вместо того, чтобы быть слишком осторожным, модели должны »должны«Они вместе ищут правду«С потребителями, сохраняя при этом сильные моральные позиции по таким вопросам, как дезинформация или вред. То есть ИИ должен предлагать информированный анализ, а не избегать обсуждения. OpenAI также рассматривает свою позицию в отношении содержания взрослых, изучая способность разрешать некоторые виды контента, но сохраняет строгий запрет на явный незаконное содержание.

Новые принципы позволяют ИИ трансформировать чувствительные материалы, но запрещают их творение. Например, можно перевести текст, связанный с контролируемыми веществами с одного языка на другой; Вы можете показать сочувствие, но без явно неискренних эмоций. Границы должны соблюдаться при увеличении полезности максимума ИИ. Другие разработчики стремятся к этому или иначе, но не все готовы сформулировать его открыто.

Особое внимание уделяется проблеме «искусственного интеллекта» — модели имеют тенденцию демонстрировать соответствие, даже если они должны возражать или критиковать. CHATGPT должен дать те же фактические ответы, независимо от формулировки вопроса, честной обратной связи вместо пустой похвалы — действуя в качестве осторожного коллеги, а не пытаться угодить. Если пользователь заинтересован в критике деятельности, ИИ должен обеспечить структурную обратную связь, а не настаивать на том, что все идеально. Если пользователь делает неправильное заявление, он должен быть вежливо скорректирован, а не высмеивать его.

Спецификация дает четкую »цепь«, Который расставляет приоритеты в инструкциях: сначала являются инструкции OpenAI, за которыми следуют рекомендации разработчиков, а затем предпочтения потребителей. Эта иерархия разъясняет, какие аспекты ИИ могут быть изменены, а какие ограничения остаются неизменными. Документ распространяется по лицензии Creative Commons Zero (CC0), которая на практике помещает его в общественное пространство: компании ИИ и исследователи могут свободно подавать, изменять или расширять эти руководящие принципы. OpenAI не обещает немедленных изменений в поведении CHATGPT или других его продуктах, но новые модели постепенно будут соответствовать новым нормам. Компания также публикует список контрольных точек, используемых для проверки того, что модели соответствуют инструкциям.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх