Антропический запрещает Клоду помочь создать оружие массового уничтожения

В ответ на растущую обеспокоенность по поводу безопасности искусственного интеллекта Anpropic изменила свою политику, чтобы использовать свой Clude Voice Chatbot. В настоящее время новые правила строго запрещают использование Clude для создания высокоэффективных взрывчатых веществ или развития биологического, химического, радиологического или ядерного оружия, сообщает PCMAG.

Четкая формулировка небезопасных сценариев

Условия использования ранее запрещены ‘Разработка оружия, взрывчатых веществ, опасных материалов или систем, которые причиняют вред«Но теперь антроп впервые впервые описывает запрещенные категории. Как отмечает Verge, новые условия сосредоточены на конкретных типах оружия массового уничтожения и их предшественниках.

Такие разъяснения в ответ на растущее число исследований, демонстрируя потенциальные риски использования моделей крупных языков (LLM) в разработке запрещенных технологий.

Открытость политического диалога

На основе повышенных ограничений безопасности компания также отменила полный запрет на создание политического контента. Теперь Clude может генерировать материалы, связанные с политическими кампаниями или лоббировать, если они не нарушают демократические процессы или не направлены на манипулирование избирателями.

Антрическое утверждение подчеркивает, что новый подход предназначен для «разрешить законным политическим дискурсом«Защита избирательных процессов от дезинформации и вмешательства.

Запрет на киберпреступность

Обновление политики также включает в себя новые положения, запрещающие Claude, используя кибератаки или создание вредоносных программ, что является важным шагом в контексте растущей обеспокоенности по поводу потенциального использования искусственного интеллекта для уголовных целей.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх