ИИ учится забывать: почему селективная амнезия важнее накопления знаний
Conventional wisdom в машинном обучении прост: чем больше данных и параметров, тем умнее модель. Индустрия вкладывает миллиарды в создание всё более масштабных систем, которые поглощают и запоминают весь доступный контент интернета. Считается, что знание никогда не бывает лишним.
Но новое исследование 'Towards Scalable Lifelong Knowledge Editing with Selective Knowledge Suppression' переворачивает эту логику. Команда разработала метод, который позволяет ИИ не просто обновлять знания, а селективно подавлять устаревшую или вредную информацию без переобучения всей модели. Ключевое открытие: модели с функцией 'забывания' показывают на 23% лучшую точность на актуальных задачах.
Turn frame здесь радикальный: а что если проблема современного ИИ не в недостатке знаний, а в неспособности отличить релевантную информацию от информационного мусора? Исследование показывает, что модели, умеющие подавлять противоречивые данные, принимают более последовательные решения и реже галлюцинируют.