Ученые обнаружили ключевую уязвимость в системе безопасности искусственного интеллекта

Исследователи обнаружили серьезную уязвимость в безопасности нейронных сетей, показав, что модели искусственного интеллекта могут быть украдены путем анализа электромагнитных сигналов устройств, на которых они работают. Методика, продемонстрированная на Google Edge TPU, позволяет воспроизвести архитектуру и функциональность AI-модели с точностью 99,91% даже без предварительного знания ее характеристик, пишет SciTechDaily.

Метод основан на отслеживании изменения электромагнитного поля в процессе работы модели. Собранные сигналы сравниваются с базой данных, содержащей сигнатуры других моделей. Таким образом, исследователи шаг за шагом воссоздали слои ИИ, используя электромагнитные «сигнатуры» каждого из них. Это позволяет создать копию модели без прямого доступа к ней.

Методика работает на многих устройствах при условии, что злоумышленник имеет доступ к устройству, при этом модель ИИ работает и на другом устройстве с аналогичными характеристиками. В демонстрации используется коммерческий чип Google Edge TPU, который широко используется в устройствах конечных пользователей.

Эта уязвимость не только подвергает риску интеллектуальную собственность, но также может открыть доступ к уязвимостям модели, позволяя третьим лицам запускать атаки. Авторы призывают разработчиков внедрить дополнительные меры безопасности для защиты моделей от атак такого типа.

Работа, поддержанная Национальным научным фондом США, была представлена ​​на конференции по криптографическому оборудованию и встраиваемым системам. Исследователи также сообщили Google об обнаруженной уязвимости.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх