EU AI Act создал иллюзию безопасности: техническая верификация оказалась невозможной
EU AI Act позиционируется как золотой стандарт регулирования искусственного интеллекта. Закон требует от компаний проводить оценку рисков, документировать алгоритмы и доказывать безопасность ИИ-систем перед внедрением. Регуляторы обещают защитить граждан от дискриминации, манипуляций и других угроз.
Реальность оказалась сложнее. Анализ технических требований EU AI Act показывает фундаментальную проблему: современная наука не знает, как измерить 'справедливость' алгоритма или предсказать его поведение в реальных условиях. Требование 'технической верификации' звучит научно, но методов для её проведения просто не существует.
Исследователи из технических университетов Европы обнаружили парадокс: чем сложнее ИИ-система, тем менее применимы к ней требования закона. Нейросети с миллиардами параметров невозможно 'объяснить' в том смысле, который требует регулятор. Компании вынуждены имитировать соответствие через формальные отчёты, которые создают видимость контроля.