Alibaba доказала: больше параметров в AI — это признак технического бессилия
Последние три года AI-индустрия жила по простой формуле: больше параметров = лучше результат. GPT-4 превзошёл GPT-3 за счёт масштаба, Claude и Gemini соревновались в размерах моделей. Qwen3.5-397B-A17B казался логичным шагом в этой гонке вооружений.
Но Qwen3.6-27B переворачивает эту логику. Модель в 15 раз меньше показывает лучшие результаты на бенчмарках программирования. Это означает, что предыдущие 370 миллиардов параметров были не прогрессом, а техническим мусором — вычислительной избыточностью, маскирующей неэффективность архитектуры.
Реальная проблема глубже. Если компактная модель превосходит гиганта, значит индустрия годами шла по пути наименьшего сопротивления: вместо алгоритмических прорывов просто добавляла железо. Qwen3.6 случайно обнажила, что 'scaling laws' — это не закон природы, а признание творческого банкротства.