Может ли искусственный интеллект уволить начальника или опустошить счета компании?

Почему ведущие эксперты не советуют давать слишком много возможностей алгоритмам.

Искусственный интеллект, ставший незаменимым помощником в бизнесе, все чаще воспринимается как потенциальный источник инсайдерских угроз. По мнению Венди Уитмор, руководителя отдела аналитики безопасности компании Palo Alto Networks, в 2026 году автономные агенты искусственного интеллекта могут стать самой большой угрозой для компаний изнутри.

Резкий рост числа таких агентов в корпоративной среде беспокоит экспертов. Аналитики Gartner прогнозируют, что к концу 2026 года специализированные системы искусственного интеллекта будут обрабатывать 40% корпоративных приложений.. В 2025 году этот показатель не достиг даже 5%. Такая динамика, с одной стороны, помогает частично компенсировать нехватку кадров в сфере информационной безопасности, но с другой – создает новые векторы рисков.

Агенты искусственного интеллекта ускоряют обработку журналов, обнаружение угроз и устранение уязвимостей и позволяют аналитикам сосредоточиться на стратегических задачах. Однако неконтролируемая автоматизация приводит к тому, что системы, предназначенные для самозащиты, становятся уязвимыми. Особенно, если им предоставлены широкие права доступа, что приводит к эффекту «суперпользователя», когда агенту предоставляется возможность контролировать критические ресурсы без ведома или участия специалистов по безопасности.

Уитмор подчеркивает важность минимизации прав доступа к ИИ — следуя тем же принципам, которые применяются к обычным сотрудникам. Проблема усугубляется тем, что отдельные компании уже тестируют сценарии, в которых ИИ утверждает финансовые транзакции и подписывает документы вместо руководителей.

Хотя такие технологии улучшают управление, они также создают риски неправомерного поведения сотрудников. Достаточно одной успешной атаки, например, путем введения вредоносных подсказок или использования уязвимостей, чтобы ИИ начал действовать в пользу злоумышленников — одобрять передачу, удалять резервные копии или собирать конфиденциальные данные.

Опасность подобных сценариев уже подтверждена практикой. В 2025 году аналитики Palo Alto Networks зафиксировали случаи, когда киберпреступники использовали ИИ для автоматизации атак и создания новых методов взлома. В одной из таких кампаний под названием «Антропная атака(антропная атака) китайская группа использовала инструмент искусственного интеллекта Claude Code для сбора информации от ряда организаций.

Злоумышленники начали активно атаковать языковые шаблоны в корпоративных системах, обходя стандартные этапы атаки, такие как получение контроля над контроллером домена. Это говорит о том, что ИИ может не только усилить атаку, но и полностью изменить ее природу.

По словам Уитмора, внедрение ИИ напоминает миграцию в облако, начавшуюся два десятилетия назад. В то время самые большие нарушения безопасности данных были связаны не с самой технологией, а с плохой конфигурацией и недостаточной защитой. Аналогичная ситуация и с ИИ. Хотя разработка новых моделей опережает развитие, меры безопасности отстают.

С ростом автономности агентов ИИ важнейшей задачей становится введение основных правил: ограничение полномочий, отслеживание действий и своевременное обнаружение аномалий. Без них ИИ может превратиться из инструмента защиты в полноценного цифрового инсайдера.

`, // — БАННЕР 2 (Новости Google) — `

`, // — БАННЕР 3 (Viber) — `

` ); const randomIndex = Math.floor(Math.random() * Banners.length); document.getElementById(‘kaldata-random-banner’).innerHTML = баннеры(randomIndex); })();

Комментируйте статью на нашем форуме. Чтобы первыми узнавать самое важное, поставьте лайк нашей странице в Facebook и подпишитесь на нас в Google News, TikTok, Telegram и Viber или загрузите приложение по адресу Калдата.com для Android, iPhone, Huawei, Google Chrome, Microsoft Edge и Opera!

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх