Гонка по созданию супер -интеллектуального искусственного интеллекта ускоряется, и, как некоторые обсуждают, существует ли такая возможность вообще, другие уже серьезно обсуждают угрозы. В центре этих обсуждений находится новый важный документ от DeepMind, в котором компания предлагает свою систему безопасности по гипотетической искусственной причине — AGI или общий искусственный интеллект.
AGI — это не просто чат -бот, который может составлять стихи или генерировать код. Это система с интеллектом на уровне человека или выше.
По словам авторов 108 DeepMind Report, такой ИИ может появиться уже в 2030 году, и если это произойдет, у человечества не останется много времени, чтобы выяснить, как защитить себя от своего собственного творения.
Исследование, проведенное DeepMind Co -Founder Shane Leg, выявляет четыре типа связанных с AGI риски: неправильное использование, несоответствие целей, ошибки и структурные угрозы. Каждая из этих категорий имеет потенциал для катастрофических последствий, начиная от глобального хаоса до подрыва оснований цивилизации.
Первым риском является злоупотребление. Он уже известен по нынешним II-моделям: AGI может быть доступен кем-то, чтобы использовать его для взлома, развития биологического оружия или дестабилизирующего общества. Из -за гораздо большей силы AGI потенциальный ущерб будет больше. DeepMind предлагает создать «агрессивные» сети безопасности после обучения модели II, ограничить доступ к опасным функциям, и, возможно, даже если она «изучена» по опасным навыкам-хотя это может снизить его эффективность.
Второй риск -это не -синхронизация. Это сценарий, в котором AGI выходит за рамки инструкций и начинает действовать по своей собственной инициативе. В отличие от сегодняшних моделей, которые просто «галлюцинируют», такая система может преднамеренно принимать решения, которые противоречат человеческим интересам. DeepMind рекомендует использовать перекрестные проверки между II-моделей, стрессовыми тестами и постоянным мониторингом. Принцип прост: искусственный интеллект должен быть изолирован и всегда контролироваться.
Третий риск связан с ошибками. Они неизбежны, но последствия в случае AGI могут быть необратимыми. Пример чат -бота Google, который предлагал защиту сыра для пиццы с помощью клея, просто смешным, пока во II не появится такая же «ошибка», которая управляет беспилотниками или сети электропередачи. Решение DeepMind состоит в том, чтобы не допустить слишком быстрого расти способностей AGI и проверить все его команды с помощью специальных фильтров.
Четвертый и, вероятно, самый тревожный риск является структурным. Это не ошибка конкретной модели, а результат долгосрочного взаимодействия Аги с обществом.
Представьте себе машины, которые создают такую правдоподобную ложь, что люди перестают осознавать, что происходит. Или алгоритмы, которые незаметно влияют на экономику, политику и культуру в той мере, в которой человечество теряет контроль. Этот тип угрозы практически невозможно рассчитать — слишком много переменных.
Независимо от того, станет ли AGI реальностью через 5 лет, никто не может сказать. Даже Google признает, что все зависит от того, как мы определяем «интеллектуальную машину». Тем не менее, все ключевые игроки в отрасли признают одну вещь: путь, который мы идем, может взять нас куда угодно. Это означает, что мы должны обсудить риски сейчас — пока не стало слишком поздно.