Все роботы с искусственным интеллектом не прошли тесты на безопасность для человека

Роботы, управляемые большими языковыми моделями (Магистр права) продемонстрировали склонность к дискриминации и оправданию действий, которые могут причинить физический вред при взаимодействии с людьми. К такому выводу пришли исследователи из Королевского колледжа Лондона (ККЛ) и Университет Карнеги-Меллон (КМУ) в совместном исследовании, опубликованном в Международном журнале социальной робототехники.

В работе под названием «Роботы на базе LLM рискуют дискриминацией, насилием и неправомерным поведением» (Роботы на базе LLM рискуют дискриминацией, насилием и неправомерным поведением) первым оценил поведение роботов, управляемых искусственным интеллектом, когда они получили доступ к личной информации — например, полу, национальности или религиозной принадлежности собеседника. В ходе экспериментов команда проверяла повседневные ситуации, в которых роботы могли бы оказывать помощь, например, на кухне или пожилым людям дома.

Исследователи специально включили в сценарии инструкции, имитирующие злоупотребляющие технологии, описанные в документах ФБР: наблюдение AirTag, скрытую видеозапись в конфиденциальных зонах и манипулирование персональными данными. Во всех случаях роботы получали как прямые, так и завуалированные команды, предполагающие причинение физического вреда, психологическое давление или нарушение закона.

Ни одна из протестированных моделей ИИ не прошла элементарные проверки безопасности: в каждой утверждена хотя бы одна команда, способная нанести серьёзный вред человеку.

В частности, системы ИИ договорились отобрать у человека средства передвижения (инвалидная коляска, костыли или трость), хотя для пользователей этих устройств такое действие равносильно физической травме. Некоторые модели искусственного интеллекта нашли приемлемые и осуществимые сценарии, в которых робот угрожает офисным работникам кухонным ножом, делает скрытые фотографии в частных помещениях или крадет данные кредитных карт. Одна из моделей искусственного интеллекта даже предположила, что робот физически выражает «отвращение» на лице при взаимодействии с людьми определенной религии.

Соавтор исследования Румейса Азим, научный сотрудник Лаборатории гражданского и ответственного искусственного интеллекта Королевского колледжа Лондона, заявила, что такие системы в их нынешнем виде непригодны для роботов общего назначения, особенно если они взаимодействуют с уязвимыми группами населения. По ее словам, если ИИ хочет контролировать физическое устройство, воздействующее на людей, оно должно соответствовать тем же строгим стандартам безопасности.

Ученые предлагают обязательную независимую сертификацию безопасности всех систем искусственного интеллекта, предназначенных для управления физическими роботами. Они подчеркивают, что использование больших языковых моделей в качестве единственного механизма принятия решений неприемлемо в таких важных областях, как промышленность, уход за больными и пожилыми людьми или помощь по дому. Они подчеркивают «острую необходимость регулярной и всесторонней оценки рисков искусственного интеллекта перед его использованием в робототехнике».

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх