Темная сторона искусственного интеллекта: как хакеры обходят все средства защиты

Согласно новому отчету Malwarebytes, киберпреступники активно используют возможности искусственного интеллекта (ИИ) и большие языковые шаблоны (Магистр права) для создания новых схем мошенничества, способных обойти большинство систем кибербезопасности.

Примером такой деятельности является фишинговая кампания, нацеленная на пользователей Securitas OneID. Злоумышленники размещают в Google рекламу, маскирующуюся под легальную. Когда пользователь нажимает на такие объявления, он перенаправляется на так называемую «белую страницу» — специально созданный сайт, не содержащий видимого вредоносного контента. Эти страницы служат отвлекающим фактором для обхода автоматической защиты Google и других платформ.

Идея атаки заключается в том, что реальные цели фишинга остаются скрытыми до тех пор, пока пользователь не выполнит определенные действия или система безопасности не завершит сканирование.

Белые страницы, созданные с помощью ИИ, содержат текст и изображения, которые выглядят правдоподобно, включая сгенерированные лица предполагаемых сотрудников компании. Это делает их еще более убедительными и труднее обнаружить. Раньше преступники использовали украденные изображения из социальных сетей или фотографии с бирж, но теперь автоматическая генерация контента позволяет быстрее адаптировать такие атаки и создавать уникальные страницы для каждой кампании.

Другой случай связан с популярной среди геймеров программой удаленного доступа Parsec. Злоумышленники создали «белую страницу» со ссылками на вселенную «Звездных войн», включая оригинальные плакаты и дизайны. Этот контент не только обманывает системы защиты, но и выглядит интересным для потенциальных жертв.

Использование искусственного интеллекта облегчает преступникам обход проверок. Например, при проверке рекламы Google видит только невинные «белые страницы», не вызывающие подозрений. Однако реальным пользователям, знакомым с контекстом, такие страницы часто кажутся несерьезными и могут быть легко раскрыты.

В ответ на растущее использование искусственного интеллекта в преступных схемах некоторые компании уже создают инструменты, которые могут анализировать и идентифицировать сгенерированный контент. Однако проблема остается: универсальность и доступность ИИ делают его привлекательным инструментом в руках недоброжелателей.

Ситуация подчеркивает важность вмешательства человека в процессы анализа данных. То, что может показаться нормальным машинному алгоритму, часто сразу воспринимается человеком как подозрительное или просто смешное. Этот баланс между технологиями и человеческим опытом остается ключевым элементом в борьбе с цифровыми угрозами.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх