FedSQ доказал: федеративное обучение работает не так, как все думали

Сегодня • arXiv cs.AI
Все знают, что федеративное обучение — это компромисс: приватность в обмен на качество. Но новый алгоритм FedSQ переворачивает эту логику, показывая результаты, которые заставляют пересмотреть саму архитектуру современного AI.

Десять лет федеративное обучение считалось «красивой теорией для реального мира» — способом обучать модели на распределённых данных без их централизации. Google использует его в Gboard, Apple — в Siri. Но всегда с оговоркой: качество страдает, сходимость медленная, результат непредсказуем. Индустрия смирилась: хочешь топовую модель — собирай данные в дата-центре.

FedSQ ломает эту парадигму через Fixed Gating — механизм, который решает главную проблему федеративного обучения: неэффективное усреднение весов между участниками. Вместо простого averaging алгоритм использует фиксированные «ворота», которые определяют, какие части модели обновлять от каждого клиента. Результат: на benchmark CIFAR-10 FedSQ показал сходимость на 40% быстрее стандартного FedAvg при сохранении точности.

Но реальный переворот — в масштабе. Исследование показывает, что с ростом числа участников FedSQ не деградирует, а улучшается. Это противоречит всему, что мы знали о федеративном обучении. При 1000 участников алгоритм достигает 94.2% точности против 89.7% у традиционных методов. Централизованное обучение на тех же данных дало 94.8% — разница статистически незначима.