В новой статье генеральный директор Google Эрик Шмидт, генеральный директор AI Александра Ванга и Дэн Хендрикс, глава Центра безопасности искусственного интеллекта, предупреждает: США не должны стремиться к монополии на чрезвычайный искусственный интеллект, похожий на Манхэттенский проект«. Авторы утверждают, что такие попытки могут привести к возмездию от Китая, включая кибератаки для дестабилизации международных отношений. Вместо того, чтобы стремиться к чрезмерному разветвлению, эксперты предлагают сосредоточиться на ограничении угрозы, используя защитные стратегии и блокирование опасных проектов.
Манхэттенский проект в области искусственного интеллекта предполагает, что конкуренты примут дисбаланс или угрозу разрушения вместо того, чтобы действовать. Попытки создать поверхности и установление глобального контроля могут вызвать реакцию и увеличить напряжение, разрушив стабильность, которую должна защищать эту стратегию », — говорят авторы.
Статья появилась через несколько месяцев после предложения Конгресса США Запуск проекта Манхэттена по финансированию разработки ИИ, аналогичного созданию атомной бомбы в 1940 -х годах. Министр энергетики США Крис Райт недавно заявил, что страна находится на грани нового проекта Манхэттена в области искусственного интеллекта. Документ ставит под сомнение популярность среди американских политиков и промышленных лидеров, что правительственная программа для ИИ является лучшим способом конкуренции с Китаем.
Шмидт, Ван и Хендрикс считают, что Соединенные Штаты находятся в ситуации, напоминающей об взаимном гарантированном разрушении, но в контексте искусственного интеллекта. Как и в случае с ядерным оружием, монополия на мощные и системы может привести к угрозе профилактического удара со стороны соперников.
Эксперты предупреждают, что Соединенные Штаты должны быть осторожны в своем стремлении к доминированию в этом районе. Хотя параллель с ядерной угрозой может звучать радикально, Мировые лидеры уже рассматривают ИИ как важное военное преимуществоС Например, Пентагон утверждает, что такие технологии помогают ускорить решения в боевых ситуациях.
Шмидт и его коллеги предлагают концепцию взаимно гарантированной неудачи ИИ (Взаимный гарантированный неисправность ИИ — Мам), в соответствии с тем, какие страны могут предварительно опасно и проектировать, не ожидая, когда противники превратят их в оружие.
Соединенные Штаты должны сосредоточиться не на «завоевании надзора за чрезмерным разветвлением», а на сдерживании других стран для создания подозрительного искусственного интеллекта. Авторы призывают к арсеналу кибератаков нейтрализовать опасные проекты и ограничить доступ противников авангардами чипам искусственного интеллекта и моделей с открытым исходным кодом.
Авторы описывают два подхода к политике ИИ. «Пессимисты«Они считают, что крушение развития ИИ неизбежно, и они призывают к задержке в прогрессе. «Страусы«С другой стороны, они убеждены в необходимости ускорить развитие и надеяться на лучшее. Статья также предлагает третий вариант: сбалансированный подход к развитию ИИ с акцентом на стратегии обороны.