Меньше языков, больше смысла: почему многоязычный ИИ — это ловушка

Сегодня • arXiv cs.CL
Все гонятся за многоязычными ИИ-моделями, способными рассуждать на десятках языков. Но исследователи из Stanford обнаружили парадокс: чем больше языков поддерживает модель, тем хуже она думает на каждом из них.

Индустрия убеждена: будущее за универсальными моделями, которые одинаково хорошо рассуждают на английском, китайском, арабском и суахили. GPT-4 поддерживает 50+ языков, Claude — 95, а новые модели стремятся к сотням. Логика простая: больше языков = больше пользователей = больше денег.

Но исследование 'Less Languages, Less Tokens' переворачивает эту логику. Команда создала специализированную модель для логических рассуждений всего на 5 языках — и получила на 40% лучшие результаты при использовании на 60% меньше вычислительных ресурсов. Секрет в том, что универсальность требует огромных затрат на 'переводческий слой' между языками, который съедает мощность, предназначенную для самого мышления.

Цифры жёсткие: в многоязычных моделях 70-80% параметров тратится на языковые различия, и только 20-30% — на логику. Это как нанять гениального математика, но заставить его 80% времени работать переводчиком. Результат предсказуем: посредственность во всём.