Remask от исследователей: почему «не заменять» становится новой догмой ИИ

Сегодня • arXiv cs.CL
В мире языковых моделей царит культ замены: плохой токен — долой, новый — на место. Но исследователи Remask предложили радикально иной подход: не выбрасывать, а улучшать. И результаты заставляют пересмотреть основы обучения ИИ.

Стандартная логика диффузионных языковых моделей проста: если токен не подходит, маскируй и заменяй на лучший. Весь процесс обучения построен на этом принципе замещения. Индустрия вложила миллиарды в совершенствование механизмов замены токенов, считая это единственным путём к качественному тексту.

Команда Remask перевернула эту парадигму. Вместо грубой замены они предложили Token-to-Mask Refinement — технологию постепенного улучшения существующих токенов через многоэтапное маскирование. По сути, модель не выбрасывает «плохие» части текста, а учится их шлифовать, сохраняя контекст и семантические связи.

Результаты эксперимента показали 23% улучшение когерентности текста по сравнению с классическими методами замены. Более того, новый подход требует на 40% меньше вычислительных ресурсов — модель тратит энергию на улучшение, а не на полную перегенерацию контента. Это особенно критично для длинных текстов, где каждая замена разрушает накопленный контекст.