Меньше языков, больше смысла: почему многоязычный ИИ — это ловушка
Индустрия убеждена: будущее за универсальными моделями, которые одинаково хорошо рассуждают на английском, китайском, арабском и суахили. GPT-4 поддерживает 50+ языков, Claude — 95, а новые модели стремятся к сотням. Логика простая: больше языков = больше пользователей = больше денег.
Но исследование 'Less Languages, Less Tokens' переворачивает эту логику. Команда создала специализированную модель для логических рассуждений всего на 5 языках — и получила на 40% лучшие результаты при использовании на 60% меньше вычислительных ресурсов. Секрет в том, что универсальность требует огромных затрат на 'переводческий слой' между языками, который съедает мощность, предназначенную для самого мышления.
Цифры жёсткие: в многоязычных моделях 70-80% параметров тратится на языковые различия, и только 20-30% — на логику. Это как нанять гениального математика, но заставить его 80% времени работать переводчиком. Результат предсказуем: посредственность во всём.