M-MiniGPT4 решил языковой барьер переводом: почему это тупик для мультиязычного ИИ

Сегодня • arXiv cs.AI
Команда разработчиков M-MiniGPT4 представила решение мультиязычности через перевод обучающих данных с английского. Звучит логично — взять лучшие датасеты и адаптировать под другие языки. Но что если этот подход навсегда заморозит неанглийские языки в роли вторых сортов?

Стандартная логика мультиязычных моделей проста: английский доминирует в качественных данных, поэтому переводим английские датасеты и обучаем модель работать с другими языками. M-MiniGPT4 следует этой парадигме, создавая выравнивание между визуальными и языковыми представлениями через переведённый контент.

Но здесь кроется фундаментальная ловушка. Перевод не просто меняет слова — он навязывает английскую логику мышления, структуру аргументов, культурные паттерны. Когда модель 'изучает' китайский через переведённые с английского тексты, она не изучает китайский — она изучает английский в китайских иероглифах.

Исследование MIT 2024 года показало: модели, обученные на переведённых данных, демонстрируют на 40% худшую производительность в задачах, требующих культурно-специфичного понимания, по сравнению с моделями на нативных данных. M-MiniGPT4, несмотря на технические достижения в выравнивании модальностей, может закреплять эту проблему в визуально-языковых задачах.