Graceful Forgetting: ИИ учится забывать, чтобы не стать преступником
Conventional wisdom гласит: чем больше данных поглотит модель, тем она умнее. GPT-4 обучался на терабайтах текста, включая книги, статьи, код и персональную информацию миллионов людей. Логика простая — больше данных равно лучшему пониманию мира.
Но исследователи из Stanford и MIT обнаружили фундаментальную проблему: модели слишком хорошо запоминают. Они воспроизводят номера кредитных карт, медицинские записи и защищённый авторским правом код дословно. В 73% случаев GPT-4 может восстановить персональные данные, если знает имя человека. Европейское право на забвение делает это прямым нарушением GDPR с штрафами до 4% от глобальной выручки.
Enter Graceful Forgetting — технология селективного удаления знаний без переобучения модели с нуля. Команда из UC Berkeley разработала алгоритм, который может 'вырезать' конкретные воспоминания из нейронной сети за часы, а не месяцы. Но есть нюанс: каждое забытое знание снижает общую производительность модели на 0.3-0.7%. Забудь достаточно — и сверхразум превращается в болтливого идиота.