Google DeepMind публикует статью о его подходе к безопасности общего искусственного интеллекта (AGI), которую компания определяет как систему, способности которых сопоставимы с способностями опытного взрослого в широком спектре умственных задач. DeepMind считает, что AGI следует ожидать к 2030 году. По словам авторов, эти системы могут представлять экзистенциальную угрозу, приводящую к «разрушению человечества».
Документ 145 -страницы, соавтованный соучредителем DeepMind Shane Leg, говорит, что AGI может произойти уже в 2030 году и причинить «серьезный вред». Авторы даже упоминают «разрушение человечества». Компания определяет общий искусственный интеллект, такой как: Система, способности которых сопоставимы с 99-м процентом квалифицированных взрослых в широком спектре нефизических задач, включая метакогнитивные задачи, такие как изучение новых навыковС
DeepMind сравнивает свой подход к управлению рисками AGI с помощью антропных и открытых методов. Авторы считают, что антроп не уделяет достаточно внимания на обучение и мониторинг безопасности, в то время как OpenAI слишком сильно полагается, чтобы автоматизировать исследования безопасности ИИ — SO — So -Salled. Соответствующий.
Openai недавно объявил, что сместила свое внимание с Agi на чрезмерную интеллектуальность. DeepMind Document ставит под сомнение возможность создания супер -интеллектуального AI — т.е. II, что превосходит людей во всех задачах. Авторы считают, что без значительных изменений в архитектуре искусственного интеллекта в ближайшем будущем маловероятно, что появятся чрезмерные системы и, возможно, вообще не появятся.
Тем не менее, авторы считают, что существующие технологии, вероятно, позволят ИИ развиваться. Это означает, что искусственный интеллект будет самоочастен и создаст более сложные версии себя. Это может быть чрезвычайно опасно, это подчеркивается в документе.
Компания предлагает стратегию защиты гипотетического общего искусственного интеллекта на основе Три принципа: Ограничение доступа к злонамерению, повышение прозрачности решений по ИИ и создавая безопасную среду для ее работы. Хотя многие технические решения все еще находятся в стадии разработки, авторы настаивают на необходимости принять профилактические меры против потенциальных угроз.
Эксперты выразили скептицизм в отношении положений исследованияВ некоторых отмечается, что концепция AGI все еще слишком неясна для научной оценки, другие считают, что самовыражение ИИ является недоказанной гипотезой. Эксперты указывают на более неотложную проблемную сферу проблемы. Поскольку сгенерированный контент, который не всегда является полностью точным, заполняет Интернет, модели ИИ начинают учиться на своих искаженных выводах, создавая порочный круг дезинформации.