Медицинский ИИ легко обмануть: хакеры атакуют через распределения данных

Сегодня • arXiv cs.AI
Медицинские AI-системы анализируют рентген и МРТ точнее человека — так говорят в больницах. Но исследование CoDA обнаружило способ заставить любую модель видеть рак там, где его нет, просто изменив статистическое распределение входных данных.

Медицинское сообщество активно внедряет vision-language модели для диагностики. Эти системы обещают снизить ошибки врачей и ускорить постановку диагнозов. FDA уже одобрило десятки AI-решений для радиологии, а больницы инвестируют миллиарды в автоматизацию.

Но исследователи из Stanford обнаружили критическую слабость: Chain-of-Distribution атаки. Злоумышленник может незаметно изменить статистические характеристики обучающих данных, заставив модель систематически ошибаться. В тестах точность диагностики падала с 94% до 23% — хуже случайного угадывания.

Проблема не в конкретной модели, а в самом принципе обучения. Все современные AI-системы полагаются на стабильность распределения данных. Но в реальной медицине это распределение постоянно меняется: новые штаммы вирусов, мутации генов, изменения в популяции пациентов. То, что выглядит как техническая уязвимость, на деле — фундаментальный изъян парадигмы.