Джаред Каплан, главный научный сотрудник стартапа Anthropic, предупреждает, что к 2030 году человечеству придется решить, насколько автономными должны быть системы искусственного интеллекта. Их самосовершенствование может вызвать полезный «взрыв интеллекта», но оно также может привести к потере контроля над технологией и риску ее неправильного использования. Если искусственному интеллекту предоставить неконтролируемую возможность совершенствоваться, в какой-то момент люди перестанут понимать его цели и ценности. За этим неизбежно последуют попытки захвата власти с помощью такого сверхчеловеческого ИИ, поскольку вся технологическая власть окажется в руках узкого круга игроков.
Джаред Каплан — физик, получивший образование в Стэнфорде и Гарварде, который работал в ЦЕРНе и Университете Джонса Хопкинса, прежде чем присоединиться к OpenAI и стать соучредителем Anthropic, компании с оборотом 180 миллиардов долларов в 2021 году. Он известен как один из ведущих мировых экспертов в области искусственного интеллекта.
Каплан считает, что рекурсивные системы, которые могут самостоятельно улучшить свои алгоритмы и возможности, представляют собой фундаментальный риск. Если ИИ станет умнее людей и сможет заручиться помощью других ИИ для ускорения своего развития, это может стать моментом непредсказуемого изменения баланса сил между людьми и машинами. С такими технологиями станет сложнее работать, и они могут быть использованы во вред. По его словам, решение о дальнейшем обучении ИИ придется принять в период с 2027 по 2030 год.
Ученый уже сделал ряд прогнозов. Он считает, что в ближайшие 2-3 года ИИ сможет выполнять большую часть офисной работы, а его сын, которому сейчас шесть лет, «никогда не превзойдет ИИ в академической работе, например, в написании эссе или сдаче экзамена по математике».
Каплан считает, что человечество должно быть готово к последствиям быстрого технического прогресса и возможной потери контроля.
По его мнению, отрасль в целом уже неплохо справляется с «приведением» ИИ в соответствие с человеческим уровнем этики и морали — настраивая модели на человеческие ценности и интересы. Anthropic продвигает подход «конституционного ИИ», при котором поведение системы регулируется набором предписывающих принципов, вдохновленных международными правовыми и этическими документами. Но как только человеческий уровень преодолен, он больше не уверен, что контроль можно сохранить.
По его словам, первая линия риска — это потеря понимания того, что делает система и с какой целью. Второе — концентрация научной и технологической власти в руках узкого круга игроков, в том числе недобросовестных.
«Вы можете представить себе человека, решившего: «Я хочу, чтобы этот искусственный интеллект был моим слугой и выполнял мою волю». Предотвращение такого захвата власти так же важно, как и устранение ошибок самих моделей»,
— говорит Каплан.
Среди положительных моментов он указывает на ускорение биомедицинских исследований, улучшение здравоохранения и кибербезопасности, повышение производительности, высвобождение времени людей и создание возможностей для процветания.
По мнению Каплана, обществу необходимо включиться в дискуссии о развитии искусственного интеллекта, привлечь международные организации и контролировать темпы и направление автономного самосовершенствования, чтобы минимизировать риски и предотвратить неправильное использование технологии. В то же время политики должны быть хорошо осведомлены о текущих тенденциях и перспективах.
` ); const randomIndex = Math.floor(Math.random() * Banners.length); document.getElementById(‘kaldata-random-banner’).innerHTML = баннеры(randomIndex); })();
Комментируйте статью на нашем форуме. Чтобы первыми узнавать самое важное, поставьте лайк нашей странице в Facebook и подпишитесь на нас в Google News, TikTok, Telegram и Viber или загрузите приложение по адресу Калдата.com для Android, iOS и Huawei!

