f-INE: Почему новый метод оценки влияния данных похоронит мечты о справедливом ИИ
Индустрия ИИ одержима поиском «плохих» данных. Миллиарды тратятся на очистку датасетов, удаление bias, выявление токсичного контента. Логика простая: найди проблемные данные, удали их — получи справедливую модель. f-INE должен был стать очередным инструментом в этой борьбе.
Но результаты тестирования f-INE переворачивают всё с ног на голову. Фреймворк использует статистические тесты для разделения реального влияния данных от случайности обучения нейросетей. И оказалось: большая часть того, что мы считаем «влиянием данных», — это артефакты случайной инициализации весов, порядка батчей, даже температуры процессора.
Команда Stanford протестировала популярные методы influence estimation на CIFAR-10 и ImageNet. Результат: без учёта случайности обучения точность определения влиятельных примеров падает с заявленных 85% до жалких 23%. Это означает, что годы исследований bias в данных строились на статистическом мираже.