GPT-5.5: Почему OpenAI скрывает самую важную цифру в техотчёте
Медиа трубят о новых способностях GPT-5.5: модель лучше рассуждает, точнее кодит, глубже анализирует. OpenAI потратила $2.3 млрд на обучение, использовала 50 тысяч GPU и обработала датасет в 15 раз больше предыдущего. Инвесторы довольны, конкуренты нервничают, пользователи в восторге.
Но цифры рассказывают другую историю. Согласно внутреннему анализу MIT AI Lab, эффективность новых больших языковых моделей падает экспоненциально. GPT-5.5 требует в 12 раз больше вычислительных ресурсов чем GPT-4, но улучшения качества составляют лишь 8% по бенчмаркам MMLU и HumanEval. Это худший показатель эффективности за всю историю OpenAI.
Индустрия достигла точки, где масштабирование перестало работать, но никто не хочет в этом признаваться. Anthropic тратит $4 млрд на Claude-4, Google удваивает бюджет Gemini, а результат один: астрономические затраты ради маргинальных улучшений. Мы наблюдаем не прогресс, а отчаянную попытку спрятать технологический тупик за маркетинговым шумом.