Недавний анонс модели Claude Mythos от Anthropic и запуск консорциума Project Glasswing вызвали много шума в отрасли. Разработчики утверждают, что их новая закрытая модель обладает уникальной способностью обнаруживать уязвимости, которые оставались незамеченными на протяжении десятилетий. Однако исследование AISLE ставит под сомнение эти достижения. Эксперты доказали, что даже небольшие и недорогие модели с открытым исходным кодом могут воспроизвести сложный анализ Mythos, если они встроены в правильно спроектированную систему.
Исследователи протестировали антропные сценарии на компактных моделях. Результаты поразительны: 8 из 8 протестированных нейронных сетей, включая миниатюрную модель с 3,6 млрд параметров (стоимостью всего $0,11 за миллион токенов), успешно обнаружили критическую уязвимость в ядре FreeBSD. Другая модель с открытым исходным кодом восстановила сложную цепочку анализа 27-летней ошибки в OpenBSD. Это доказывает, что возможности искусственного интеллекта по информационной безопасности не возрастают плавно с размером модели, а распределяются крайне неравномерно.
Одним из наиболее показательных тестов стал «Парадокс OWASP». Исследователи предоставили моделям фрагмент кода Java, который выглядит как уязвимость, но на самом деле является безопасным. Большинство «гигантов», включая Claude 4.5 и GPT-4, ошиблись, получив ложные срабатывания. При этом небольшие модели с открытым исходным кодом, такие как DeepSeek R1, правильно проследили логику и подтвердили безопасность кода.
Расхождение между возможностями модели особенно заметно при переходе от открытия к эксплуатации. В то время как Mythos демонстрирует виртуозное создание сложных эксплойтов, модели с открытым исходным кодом предлагают более прагматичные, хотя и менее «творческие» инженерные решения. Однако для задач безопасности, таких как обнаружение и устранение уязвимостей, «блестящее» написание вирусов гораздо менее необходимо, чем надежное и недорогое сканирование.
Данные AISLE, накопленные с середины 2025 года, показывают, что системы с открытым исходным кодом уже обнаруживают критические уязвимости в таких проектах, как OpenSSL и Curl, и получают одобрение от своих технических руководителей. Это настоящая работа в производственной среде, которая происходит независимо от закрытых лабораторий.
Главный вывод исследования заключается в том, что в сфере кибербезопасности с использованием искусственного интеллекта ключевым является система, а не конкретная модель. Интеллект нейронной сети — лишь один из параметров. Эффективная защита зависит от того, как организован процесс — от глубокой экспертизы, заложенной в архитектуру, до итеративной проверки гипотез. Успех Anthropic подтверждает жизнеспособность ИИ-аналитики, но не доказывает необходимость чрезвычайно дорогих проприетарных систем.
Для отрасли это означает смену парадигмы. Вместо того, чтобы полагаться на одну дорогую и мощную модель, становится более эффективным использовать несколько гораздо более дешевых моделей, которые могут параллельно анализировать большие объемы кода.
Все важное из мира технологий прямо на ваш почтовый ящик.
Подписываясь, вы принимаете наши Условия и Политику конфиденциальности. Вы можете отказаться от подписки одним щелчком мыши в любое время.

