Киберпреступники все чаще используют мультистические атаки ИИ

Большие языковые модели и чат -боты ИИ были свободны в течение нескольких лет. Но их использование часто не с добрыми намерениями. Технология была быстро передана в киберпреступники, которые слишком успешно используют ее для их целей. И их атаки не ограничиваются одним каналом или вектором. Согласно отчету компании кибер -защиты, атаки с помощью искусственного интеллекта становятся все более понаправленными. Это включает в себя фишинговые буквы, а также распределение вредоносного кода, имитация голоса и многое другое. И все это до одной цели. Таким образом, кампании все более убедительны и трудно контролировать.

Обследование тенденций киберпреступности Sosafe 2025 было проведено более 500 специалистов по безопасности по всему миру и 100 от корпоративных клиентов компании в 10 странах.

87% респондентов разделяют, что в прошлом году компания, в которой они работают, была целью AI Cyberatta. И 91% из них ожидают, что такие атаки увеличатся в ближайшем будущем. Существует также мрачное наблюдение от Всемирного экономического форума. По его словам, инструменты Deepfei, которые теперь можно найти на подземных форумах, увеличились на 223% в период с первого квартала 2023 года до того же периода 2024 года. Что касается исследования Sosafe, менее одной трети из опрошенных (26%) думают, что они способны обнаружить этот тип атак.

«Искусственный интеллект резко увеличивает персонализацию и сложность кибератак», — прокомментировал Эндрю Роуз, директор Sosafe. «И хотя организации знают о атаках, наши данные показывают, что предприятия не уверены, что они могут обнаружить их и реагировать на них адекватно». И еще.

Методы ИИ, которые скрывают происхождение и намерение атак, являются наибольшей проблемой для 51% респондентов. Они уже проводятся одновременно через SMS и каналы электронной почты, платформы социальных сетей и бизнеса.

«Атака на жертвами посредством комбинации коммуникационных платформ позволяет хакерам имитировать нормальную коммуникационную практику. Это дает им большую надежность. Sosafe также использует термин «3D фишинг» здесь, чтобы указать комбинацию голоса, видео и текстовых элементов для создания жесткого мошенничества с AI -Catch. Использование искусственного интеллекта самими компаниями создает отдельный вектор для атак. Это включает в себя формы атак, такие как «коридор AI» и «Загрязнение информации» (отравление данных). Это преднамеренная вставка неправомерных поведений или вредоносной информации в учебные модели, чтобы представить неправильные данные. Исследование показало, что более половины компаний, использующих инструменты ИИ, не имеют готовых мер по этому типу атаки.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх