Бизнес-школа в Швейцарии, поддерживаемая Саудовской Аравией, запустила «Часы Судного дня», чтобы предупредить мир о вреде «неконтролируемого общего искусственного интеллекта», того, что она называет «богоподобным» ИИ. Представьте себе, что в 1980-х годах люди, продававшие офисы с помощью электронных таблиц Excel, пытались сказать работникам, что это программное обеспечение — это путь к рождению бога, и использовали для этого тикающий Rolex, и вы поймете, с чем мы здесь имеем дело.
Майкл Уэйд — создатель часов и профессор стратегии и цифровых технологий TONOMUS в бизнес-школе IMD в Лозанне, Швейцария, и директор Глобального центра цифровой трансформации и искусственного интеллекта TONOMUS — представил часы в недавнем выпуске.
Часы, тикающие до полуночи, — некогда мощная, а теперь устаревшая метафора атомного века. Это изображение настолько старо и сохранилось, что оно только что отпраздновало свое 75-летие. После того, как Америка сбросила ядерное оружие на Японию, некоторые исследователи и учёные, работавшие над разработкой этого оружия, сформировали «Бюллетень учёных-атомщиков».
Их проект заключался в том, чтобы предупредить мир о неминуемом разрушении. «Часы Судного дня» — один из способов, которым они это делают. Каждый год эксперты в различных областях — от ядерного оружия до изменения климата и, да, искусственного интеллекта — собираются и обсуждают, насколько облажался мир. Потом установили часы. Чем ближе к полуночи, тем ближе человечество к своей гибели. Прямо сейчас это в 90 секунд до полуночи самое близкое время, когда-либо установленное.
Уэйд и IMD не имеют никакого отношения к «Бюллетеню ученых-атомщиков», а «Часы Судного дня» — это нечто отдельное. Творение Уэйда — часы безопасности искусственного интеллекта. «Текущее значение Часов — 29 минут до полуночи — является показателем того, насколько близко мы подошли к критическому переломному моменту, когда неконтролируемый ОИИ может привести к экзистенциальным рискам», — сказал он в своей статье. «Хотя катастрофического ущерба пока не произошло, головокружительная скорость развития ИИ и сложность регулирования означают, что все заинтересованные стороны должны оставаться бдительными и вовлеченными».
Самые громкие сторонники ИИ в Кремниевой долине любят прибегать к ядерной метафоре. Генеральный директор OpenAI Сэм Альтман сравнил работу своей компании с Манхэттенским проектом. Сенатор Эдвард Дж. Марки (демократ от Массачусетса) написал что стремление Америки внедрить ИИ похоже на стремление Оппенгеймера к созданию атомной бомбы. Некоторые из этих страхов и беспокойства могут быть искренними, но, в конце концов, это все маркетинг.
Мы находимся в середине ажиотажа вокруг ИИ. Компании обещают, что это может принести беспрецедентную прибыль и снизить затраты на рабочую силу. Машины, говорят, скоро все за нас сделают. Реальность такова, что ИИ полезен, но также в основном перемещает затраты на рабочую силу и производство в другие части цепочки, где конечный пользователь этого не видит.
Страх перед тем, что ИИ станет настолько продвинутым, что уничтожит человечество, — это всего лишь еще один вид шумихи. Думеризм в отношении словесных калькуляторов и систем прогнозного моделирования — это всего лишь еще один способ заинтересовать людей возможностями этой технологии и замаскировать реальный вред оно создает.
На недавнем мероприятии Tesla роботы-бармены разливали напитки посетителям. Судя по всему ими управляли дистанционно люди. LLM сжигают тонну вода и электричество придумывая ответы, часто полагаются на тонкое и постоянное внимание человеческие «тренеры» которые трудятся в бедных странах и работают за гроши. Люди используют эту технологию, чтобы наводнить Интернет созданными без согласия обнаженными изображениями других людей. Это лишь некоторые из реальных проблем, уже причиненных быстрым внедрением искусственного интеллекта в Кремнии.
И пока вы боитесь, что Скайнет оживет и уничтожит человечество в будущем, вы не обращаете внимания на проблемы, стоящие прямо перед вами. «Часы Судного Дня» в Бюллетене могут показаться непостижимыми на первый взгляд, но за этой метафорой стоит армия впечатляющих умов, ежедневно производящих работу о реальных рисках, связанных с ядерным оружием и новыми технологиями.
В сентябре «Бюллетень» поместил фотографию Альтмана в статье. опровержение гиперболических утверждений о том, как искусственный интеллект можно использовать для создания нового биологического оружия. «Несмотря на все мрачные прогнозы, на самом деле существует много неопределенностей в том, как ИИ повлияет на биологическое оружие и на более широкую сферу биобезопасности», — говорится в статье.
Он также подчеркнул, что разговоры об экстремальных сценариях вокруг ИИ помогают людям избежать более трудных разговоров. «Задача, как и на протяжении более двух десятилетий, состоит в том, чтобы избежать апатии и преувеличений в отношении научных и технологических разработок, которые влияют на биологическое разоружение и усилия по недопущению попадания биологического оружия в военные планы и арсеналы насильственных субъектов», — говорится в Бюллетене. . «Дебаты об ИИ поглощают внимание на высоком уровне и в обществе, и… они рискуют получить слишком узкую направленность угроз, из-за которой упускаются из виду другие риски и возможности».
Ежегодно люди, управляющие «Часами Судного дня», публикуют десятки подобных статей. Швейцарские часы искусственного интеллекта не имеют такой научной поддержки, хотя утверждают, что отслеживают подобные статьи в своих часто задаваемых вопросах.
Вместо этого у него есть деньги из Саудовской Аравии. Позиция Уэйда в школе возможна благодаря финансированию от TONOMUS, дочерней компании NEOM. NEOM — широко разрекламированный город будущего Саудовской Аравии, который пытаются построить в пустыне. Среди других обещаний NEOM: роботы-динозавры, летающие машины и гигантская искусственная луна.