EU AI Act создал иллюзию безопасности: техническая верификация оказалась невозможной

Сегодня • arXiv cs.AI
Европейский союз принял самый строгий в мире закон об ИИ, требующий техническую верификацию высокорисковых систем. Но исследование показывает: 73% требований закона технически невыполнимы современными методами тестирования.

EU AI Act позиционируется как золотой стандарт регулирования искусственного интеллекта. Закон требует от компаний проводить оценку рисков, документировать алгоритмы и доказывать безопасность ИИ-систем перед внедрением. Регуляторы обещают защитить граждан от дискриминации, манипуляций и других угроз.

Реальность оказалась сложнее. Анализ технических требований EU AI Act показывает фундаментальную проблему: современная наука не знает, как измерить 'справедливость' алгоритма или предсказать его поведение в реальных условиях. Требование 'технической верификации' звучит научно, но методов для её проведения просто не существует.

Исследователи из технических университетов Европы обнаружили парадокс: чем сложнее ИИ-система, тем менее применимы к ней требования закона. Нейросети с миллиардами параметров невозможно 'объяснить' в том смысле, который требует регулятор. Компании вынуждены имитировать соответствие через формальные отчёты, которые создают видимость контроля.