FedKLPR решил проблему приватности в AI — но создал куда более серьёзную

Сегодня • arXiv cs.AI
Исследователи из MIT представили FedKLPR — алгоритм для распознавания людей без централизации данных. Звучит как решение проблемы приватности. Но цифры говорят обратное: точность выросла на 23% именно благодаря тому, что система научилась извлекать больше информации из меньших данных.

Федеративное обучение преподносят как панацею от нарушений приватности. Вместо отправки личных данных на сервер, алгоритмы обучаются локально, передавая только обновления модели. FedKLPR идёт дальше: использует KL-дивергенцию для 'умного сжатия' нейросетей, сохраняя 94% точности при сокращении модели в 8 раз.

Но вот парадокс: чем эффективнее сжатие, тем больше скрытой информации извлекает алгоритм из каждого пикселя. FedKLPR достигает 87.3% точности в распознавании людей против 71% у базовых методов. Это означает, что система научилась находить уникальные биометрические паттерны там, где раньше видела только шум.

Исследование показывает: 'приватный' алгоритм может восстанавливать личные характеристики из данных, которые кажутся анонимными. При тестировании на датасете Market-1501 FedKLPR идентифицировал людей по походке, позе и даже отражениям в очках — информации, которую человек не заметит.