Пока хакеры совершенствуют атаки, ИИ учится их классифицировать — кто выиграет гонку?
Традиционно считается, что автоматизация анализа вредоносов — это чистое благо. Исследователи разработали иерархическую систему ансамблей LLM, которая классифицирует малвар по семействам с точностью до 94%. Система анализирует код, поведенческие паттерны и сигнатуры, обучаясь на миллионах образцов.
Но здесь срабатывает парадокс красной королевы из кибербезопасности. Каждое улучшение в детекции стимулирует эволюцию атак. Публикация методов классификации фактически становится инструкцией для создания более изощрённых вредоносов. Хакеры уже используют те же LLM для генерации полиморфного кода, который обходит существующие классификаторы.
Более того, весовые иерархические ансамбли требуют огромных вычислительных ресурсов — то, что доступно крупным корпорациям, но не рядовым специалистам по безопасности. Получается, что передовые инструменты защиты концентрируются у немногих игроков, создавая новые уязвимости в экосистеме.