ИИ с человеческим интеллектом может разрушить мир. Исследователи Google описали, как

Ученые глубоко убедится, что искусственный общий интеллект (AGI) с возможностями человеческого уровня будет разработан к 2030 году и может нанести серьезный ущерб, если не контролироваться.

Команда DeepMind, возглавляемая соучредителем компании Shane Leg, классифицирует негативные последствия AGI. Исследователи определили четыре угрозы: злоупотребление, расхождение, ошибки и структурные риски, пишет Ars Technica.

Злоупотреблять похож на текущие риски, связанные с ИИ. AGI может быть использован для злоупотребления. Например, можно попросить обнаружить и использовать уязвимости с нулевого дня или создать вирус дизайна, который можно использовать в качестве биологического оружия. DeepMind говорит, что разработчикам AGI компании должны будут проводить обширные тесты и создавать стабильные протоколы безопасности после обучения, чтобы избежать этого.

Вторая угроза несоответствиеS этот тип проступка AGI описывается как мошенническая машина, которая избежала ограничений, наложенных его разработчиками. Такой ИИ выполняет действия, которые разработчики не имели в виду. DeepMind утверждает, что это больше, чем обычное мошенничество или интрига. Чтобы избежать этого, DeepMind предлагает разработчикам использовать такие методы, как улучшенный надзор. Например, две копии искусственного интеллекта могут проверить необработанные данные для создания надежных систем, которые вряд ли будут обманывать.

Ошибки еще одна угроза. Это вредные результаты, не предоставленные оператором. DeepMind отмечает, что военные могут выложить AGI из -за конкурентного давления, но такие системы могут сделать серьезные ошибки, которые имеют фатальные последствия. Исследователи не предлагают решение этой проблемы, за исключением того, что AGI не станет слишком сильным.

Исследователи также рассказывают о структурных рисках, которые DeepMind определяет как непреднамеренные, но реальные последствия мульти -сельскохозяйственных систем. Например, AGI может создавать ложную информацию, которая настолько правдоподобна, что трудно понять, если ее можно доверять.

DeepMind представляет этот отчет о рисках AGI в качестве отправной точки для жизненно важных дискуссий о проблемах искусственного интеллекта будущего.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх