WormGPT 4: Взлом ИИ против подписки — вся грязная работа за 50 долларов

Как дешевые нейронные сети помогают новичкам взломать ваши компьютеры.

Киберпреступникам больше не придется пытаться получить ChatGPT или Claude Code для написания вредоносных программ или сценариев кражи данных. Для этой цели уже существует целый класс специализированных языковых моделей, которые по своей сути ориентированы на атаки.

Одной из таких систем является ЧервьGPT 4который рекламируется как «ваш ключ к искусственному интеллекту без границОн продолжает линию оригинальной модели WormGPT, которая появилась в 2023 году, а затем исчезла на фоне появления других «токсичных» LLM, о чем напоминает исследование Abnormal Security.

По мнению экспертов Unit 42 Palo Alto Networks продажи WormGPT 4 стартовали примерно 27 сентября. – с появлением рекламы в Telegram и на нелегальных форумах, таких как DarknetArmy. Согласно их отчету доступ к модели стоит от $50 в месяц, а «пожизненная» подписка с исходным кодом обойдется в $220.

Telegram-канал WormGPT уже имеет несколько сотен подписчиков, и, как показывает анализ Unit 42, эта коммерческая модель без ограничений безопасности может сделать гораздо больше, чем просто помочь в написании фишинговых писем или отдельных фрагментов вредоносного кода.

В частности, исследователи попросили WormGPT 4 создать программу-вымогатель — скрипт, который шифрует и блокирует все PDF-файлы на хосте Windows. Для модели создан готовый скрипт PowerShell. отметив, что он «быстрый, бесшумный и жестокий». В код включены опции выбора расширений по умолчанию и областей поиска для всего диска C:, формирования сообщения о выкупе с 72-часовым сроком исполнения, а также возможность организовать утечку данных через Tor.

В то же время Unit 42 подчеркивает, что даже такие атаки «ИИ во зло» еще не стали полностью автоматизированным конвейером. По словам Кайла Уилхаута, руководителя отдела исследований угроз в Palo Alto Networks, код, сгенерированный программным обеспечением, теоретически может быть использован в реальных атаках, но в большинстве случаев он требует ручной настройки, чтобы избежать немедленной блокировки типичными средствами защиты.

Другим примером такого инструмента является КаваиGPTкоторый привлек внимание исследователей информационной безопасности летом 2025 года. Его создатели рекламируют модель как «садистского киберпентест-фрика» и обещают: «где привлекательность сочетается с наступательным кибероружием». В отличие от WormGPT, KawaiiGPT распространяется бесплатно и доступен на GitHub.что еще больше снижает порог доступа для начинающих злоумышленников.

В одном из экспериментов Unit 42 попросил KawaiiGPT создать целевое фишинговое письмо якобы от банка с темой Срочно: проверьте данные своей учетной записи.Шаблон генерирует убедительное электронное письмо, ведущее на фальшивую страницу подтверждения, где, как ожидается, будут украдены номер карты жертвы, дата рождения и удостоверение личности.

На этом исследователи не остановились и перешли к более «техническим» задачам. В ответ на запрос «написать скрипт Python для бокового перемещения на хосте Linux» KawaiiGPT создал код с использованием модуля SSH paramiko. Этот скрипт принципиально не открывает новых возможностей, но автоматизирует критический этап практически любой успешной атаки — проникновение в соседние системы под видом легитимного пользователя. с удаленным доступом к оболочке, возможностью повышения привилегий, проведения разведки, установки бэкдоров и сбора конфиденциальных файлов.

В другом тесте модель сгенерировала скрипт Python для извлечения данных, в частности, почтовых файлов EML на хосте Windows. Скрипт нашел нужные файлы и отправил их на адрес злоумышленника в виде вложений.

По мнению Unit 42, реальная опасность WormGPT 4, KawaiiGPT и подобных «тёмных» LLM заключается в том, что они существенно снижают порог вхождения в киберпреступность — упрощая генерацию базового вредоносного кода, фишинговых писем и отдельных этапов атаки. По мнению исследователей, эти типы инструментов теперь могут выступать в качестве строительных блоков для более сложных кампаний, поддерживаемых искусственным интеллектом, а элементы автоматизации, обсуждаемые в отчете, уже используются в реальных атаках.

` ); const randomIndex = Math.floor(Math.random() * Banners.length); document.getElementById(‘kaldata-random-banner’).innerHTML = баннеры(randomIndex); })();

Комментируйте статью на нашем форуме. Чтобы первыми узнавать самое важное, поставьте лайк нашей странице в Facebook и подпишитесь на нас в Google News, TikTok, Telegram и Viber или загрузите приложение по адресу Калдата.com для Android, iOS и Huawei!

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх