Ахиллесова пята защиты ИИ: сочетание CAPTCHA и QR-кодов не работает

Как искусственный интеллект превратил фишинг в неуязвимое оружие.

Традиционные методы распознавания фишинговых писем, основанные на грамматических ошибках и навязчивом стиле общения, больше не работают. Согласно новому отчету Cofense Intelligence под названием «ИИ сам по себе не является пуленепробиваемым», злоумышленники начали активно использовать ChatGPT и другие инструменты искусственного интеллекта для создания безупречных текстов.

Хотя эксперты по кибербезопасности также используют искусственный интеллект для защиты электронной почты, многие фишинговые письма все еще попадают в почтовые ящики пользователей. Основная проблема заключается в том, что модели искусственного интеллекта и машинного обучения обучаются с использованием исторических данных, в то время как новые угрозы развиваются с молниеносной скоростью.

Однако Системы на основе искусственного интеллекта демонстрируют определенный успех. По данным Cofense Intelligence, искусственный интеллект способен понимать логику подозрительных электронных писем и распознавать методы фишинга – когда хакеры используют фишинг для перенаправления пользователей на вредоносные сайты, такие как «vwindows(.)com» или «wallrnart(.)com».

Автор отчета Джейкоб Малимбан отмечает, что искусственный интеллект может как помочь, так и навредить организациям, особенно если модель недостаточно обучена и оставлена ​​без присмотра. Современные шлюзы безопасности электронной почты способны блокировать экстренные сообщения, но ситуация усложняется, когда хакеры используют автоматизированные инструменты для сбора информации о сотрудниках компании.

Эксперты предупреждают о опасность скомпрометированных аккаунтов – злоумышленники могут научить искусственный интеллект копировать стиль электронного письма жертвы. В сочетании с возможностью отвечать в существующих цепочках электронной почты от имени скомпрометированной учетной записи это делает новые цели менее бдительными.

Они представляют собой отдельную угрозу дипфейкикоторый может с большей точностью имитировать внешний вид и голоса доверенных лиц. Даже LastPass, компания по кибербезопасности, признала, что стала жертвой дипфейкового мошенничества, когда злоумышленники подменили голос генерального директора.

Cofense Intelligence привела пример атаки, когда преступники смогли имитировать голоса финансового директора и других сотрудников во время конференц-связи, убеждая организацию-жертву перевести средства. Эта изощренная атака обошлась компании в 25 миллионов долларов. доллар.

ИИ также плохо работает при анализе электронных писем, требующих действий пользователя.например сканирование QR-кода. Мошенники легко обходят средства защиты, встраивая вредоносные ссылки или QR-коды в PDF-файлы и используя CAPTCHA для усложнения автоматического анализа.

По мнению экспертов, наступательный ИИ, используемый хакерами, будет развиваться быстрее, чем защитный ИИ, поскольку он не ограничен юридическими, авторскими или этическими нормами.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх