Согласно новому отчету Malwarebytes, киберпреступники активно используют возможности искусственного интеллекта (ИИ) и большие языковые шаблоны (Магистр права) для создания новых схем мошенничества, способных обойти большинство систем кибербезопасности.
Примером такой деятельности является фишинговая кампания, нацеленная на пользователей Securitas OneID. Злоумышленники размещают в Google рекламу, маскирующуюся под легальную. Когда пользователь нажимает на такие объявления, он перенаправляется на так называемую «белую страницу» — специально созданный сайт, не содержащий видимого вредоносного контента. Эти страницы служат отвлекающим фактором для обхода автоматической защиты Google и других платформ.
Идея атаки заключается в том, что реальные цели фишинга остаются скрытыми до тех пор, пока пользователь не выполнит определенные действия или система безопасности не завершит сканирование.
Белые страницы, созданные с помощью ИИ, содержат текст и изображения, которые выглядят правдоподобно, включая сгенерированные лица предполагаемых сотрудников компании. Это делает их еще более убедительными и труднее обнаружить. Раньше преступники использовали украденные изображения из социальных сетей или фотографии с бирж, но теперь автоматическая генерация контента позволяет быстрее адаптировать такие атаки и создавать уникальные страницы для каждой кампании.
Другой случай связан с популярной среди геймеров программой удаленного доступа Parsec. Злоумышленники создали «белую страницу» со ссылками на вселенную «Звездных войн», включая оригинальные плакаты и дизайны. Этот контент не только обманывает системы защиты, но и выглядит интересным для потенциальных жертв.
Использование искусственного интеллекта облегчает преступникам обход проверок. Например, при проверке рекламы Google видит только невинные «белые страницы», не вызывающие подозрений. Однако реальным пользователям, знакомым с контекстом, такие страницы часто кажутся несерьезными и могут быть легко раскрыты.
В ответ на растущее использование искусственного интеллекта в преступных схемах некоторые компании уже создают инструменты, которые могут анализировать и идентифицировать сгенерированный контент. Однако проблема остается: универсальность и доступность ИИ делают его привлекательным инструментом в руках недоброжелателей.
Ситуация подчеркивает важность вмешательства человека в процессы анализа данных. То, что может показаться нормальным машинному алгоритму, часто сразу воспринимается человеком как подозрительное или просто смешное. Этот баланс между технологиями и человеческим опытом остается ключевым элементом в борьбе с цифровыми угрозами.