FedKLPR решил проблему приватности в AI — но создал куда более серьёзную
Федеративное обучение преподносят как панацею от нарушений приватности. Вместо отправки личных данных на сервер, алгоритмы обучаются локально, передавая только обновления модели. FedKLPR идёт дальше: использует KL-дивергенцию для 'умного сжатия' нейросетей, сохраняя 94% точности при сокращении модели в 8 раз.
Но вот парадокс: чем эффективнее сжатие, тем больше скрытой информации извлекает алгоритм из каждого пикселя. FedKLPR достигает 87.3% точности в распознавании людей против 71% у базовых методов. Это означает, что система научилась находить уникальные биометрические паттерны там, где раньше видела только шум.
Исследование показывает: 'приватный' алгоритм может восстанавливать личные характеристики из данных, которые кажутся анонимными. При тестировании на датасете Market-1501 FedKLPR идентифицировал людей по походке, позе и даже отражениям в очках — информации, которую человек не заметит.