Пока хакеры совершенствуют атаки, ИИ учится их классифицировать — кто выиграет гонку?

Сегодня • arXiv cs.AI
Учёные создали систему на основе больших языковых моделей для автоматической классификации вредоносного ПО. Звучит как прорыв в кибербезопасности. Но есть нюанс: чем лучше ИИ распознаёт малвар, тем быстрее хакеры учатся его обходить.

Традиционно считается, что автоматизация анализа вредоносов — это чистое благо. Исследователи разработали иерархическую систему ансамблей LLM, которая классифицирует малвар по семействам с точностью до 94%. Система анализирует код, поведенческие паттерны и сигнатуры, обучаясь на миллионах образцов.

Но здесь срабатывает парадокс красной королевы из кибербезопасности. Каждое улучшение в детекции стимулирует эволюцию атак. Публикация методов классификации фактически становится инструкцией для создания более изощрённых вредоносов. Хакеры уже используют те же LLM для генерации полиморфного кода, который обходит существующие классификаторы.

Более того, весовые иерархические ансамбли требуют огромных вычислительных ресурсов — то, что доступно крупным корпорациям, но не рядовым специалистам по безопасности. Получается, что передовые инструменты защиты концентрируются у немногих игроков, создавая новые уязвимости в экосистеме.