В 2014 году Стивен Хокинг сделал тревожное предупреждение о возможных угрозах, вызванных искусственным интеллектом. Его забота была вызвана не предполагаемыми злонамеренностью машин, а перспективой достижения так называемого. Технологическая сингулярность — момент, когда II превзойдет человеческий интеллект и сможет развиваться за пределы своей первоначальной идеи.
В этом случае, как подчеркивает ученый, если цели супер -интеллектуальной системы не совпадают с человеческими целями, последствия могут быть катастрофическими.
В последние годы научное сообщество и представители технологической индустрии все больше выражают такие проблемы. Одним из самых известных страхов является сценарий, напоминающий фильмы серии «Терминатор: искусственный интеллект» берет контроль над военными системами и инициирует ядерные конфликты. Более прозаичным, но не менее разрушительным результатом является перемещение людей с рынка труда, где машины становятся дешевле, быстрее и более эффективны.
Эти опасения отражают давние беспокойства, которые датируются литературой и кино с начала 20-го века. Ученые посткхуманисты изучают эти страхи через призму культурных стереотипов, вызванных произведениями искусства. Уже в пьесе Карел Чапек «Рур» с 1920 года, где впервые появилось слово «робот», рассказывается о создании искусственных работников, которые в конечном итоге восстают. В фильме «Метрополис» Фрица Ланга в 1927 году сюжет вращается вокруг конфликта между роботами и людьми, где машины становятся символом классовой борьбы.
С развитием компьютерных технологий усиливается беспокойство. Такие персонажи, как HAL 9000 с 2001 года: Space Odyssey, блуждающие андроиды в мире дикого запада и зловещие агенты в матрице, подчеркивают опасность технологии вне контроля. Эти образы образуют мифологию страха, в которой искусственный интеллект всегда находится на грани восстания против его создателей.
Однако такие предметы могут отвлечь внимание от более тревожной реальности-природы самих людей. Современные корпорации и их лидеры активно используют ИИ для получения прибыли, часто пренебрегая моральными последствиями.
Одним из ярких примеров является массовая коллекция данных, включая произведения искусства и текстов, для обучения I-моделей без согласия их авторов. В образовательной среде ИИ используется для отслеживания студентов, что вызывает обеспокоенность по поводу полного контроля.
Развитие спутников с искусственным интеллектом и секс -роботами уже превысило границы научной фантастики. Такие устройства оказывают влияние на межличностные отношения, заменяя живое взаимодействие на предварительно запрограммированные ответы. Как пишет ученый Илу Нурбакш, II становится механизмом, который манипулирует желаниями людей и продает им свои мечты в упрощенной форме.
Но на фоне этих проблем проблемы, связанные с конфиденциальностью и защитой данных, начинают выглядеть почти безвредно, когда вы думаете о том, как это используется агентствами безопасности. Новые технологии позволяют странам легко отслеживать, изолировать и устранять граждан под предлогом безопасности. В этой реальности угроза исходит не от самих машин, а от тех, кто их создает и использует.
Исаак Азимов исследует подобные дилеммы в своих историях. Его известные «три закона робототехники» основаны на идее о том, что машины не должны причинять вреда людям, но, учитывая историю человечества, возникает разумный вопрос: способны ли он следовать таким принципам?
Возможно, это именно то, что мы должны рассматривать как серьезную угрозу. Не гипотетическая воля искусственного интеллекта, а неспособность человечества направить свое развитие общему благу. Без зрелости и ответственности любая технология может стать инструментом для разрушения — не вины машин, а вина тех, кто их создает.