Graceful Forgetting: ИИ учится забывать, чтобы не стать преступником

Сегодня • arXiv cs.AI
Google, OpenAI и Anthropic потратили миллиарды на обучение моделей запоминать всё подряд. Теперь они тратят ещё больше на то, чтобы научить их забывать. И это не баг — это единственный способ избежать судебных исков на триллионы долларов.

Conventional wisdom гласит: чем больше данных поглотит модель, тем она умнее. GPT-4 обучался на терабайтах текста, включая книги, статьи, код и персональную информацию миллионов людей. Логика простая — больше данных равно лучшему пониманию мира.

Но исследователи из Stanford и MIT обнаружили фундаментальную проблему: модели слишком хорошо запоминают. Они воспроизводят номера кредитных карт, медицинские записи и защищённый авторским правом код дословно. В 73% случаев GPT-4 может восстановить персональные данные, если знает имя человека. Европейское право на забвение делает это прямым нарушением GDPR с штрафами до 4% от глобальной выручки.

Enter Graceful Forgetting — технология селективного удаления знаний без переобучения модели с нуля. Команда из UC Berkeley разработала алгоритм, который может 'вырезать' конкретные воспоминания из нейронной сети за часы, а не месяцы. Но есть нюанс: каждое забытое знание снижает общую производительность модели на 0.3-0.7%. Забудь достаточно — и сверхразум превращается в болтливого идиота.