Alibaba доказала: больше параметров в AI — это признак технического бессилия

Сегодня • Techmeme
Alibaba выпустила Qwen3.6-27B, которая превзошла собственную модель с 397 миллиардами параметров в задачах программирования. Звучит как триумф оптимизации. Но это скорее диагноз: индустрия потратила годы на неправильный путь развития.

Последние три года AI-индустрия жила по простой формуле: больше параметров = лучше результат. GPT-4 превзошёл GPT-3 за счёт масштаба, Claude и Gemini соревновались в размерах моделей. Qwen3.5-397B-A17B казался логичным шагом в этой гонке вооружений.

Но Qwen3.6-27B переворачивает эту логику. Модель в 15 раз меньше показывает лучшие результаты на бенчмарках программирования. Это означает, что предыдущие 370 миллиардов параметров были не прогрессом, а техническим мусором — вычислительной избыточностью, маскирующей неэффективность архитектуры.

Реальная проблема глубже. Если компактная модель превосходит гиганта, значит индустрия годами шла по пути наименьшего сопротивления: вместо алгоритмических прорывов просто добавляла железо. Qwen3.6 случайно обнажила, что 'scaling laws' — это не закон природы, а признание творческого банкротства.