GPT-5.5: Почему OpenAI скрывает самую важную цифру в техотчёте

Сегодня • CNBC Tech
OpenAI выпустил GPT-5.5 под фанфары о прорыве в AI. Но в 847-страничном техническом отчёте есть одна строчка, которую никто не цитирует: энергопотребление выросло в 12 раз, а качество ответов — всего на 8%.

Медиа трубят о новых способностях GPT-5.5: модель лучше рассуждает, точнее кодит, глубже анализирует. OpenAI потратила $2.3 млрд на обучение, использовала 50 тысяч GPU и обработала датасет в 15 раз больше предыдущего. Инвесторы довольны, конкуренты нервничают, пользователи в восторге.

Но цифры рассказывают другую историю. Согласно внутреннему анализу MIT AI Lab, эффективность новых больших языковых моделей падает экспоненциально. GPT-5.5 требует в 12 раз больше вычислительных ресурсов чем GPT-4, но улучшения качества составляют лишь 8% по бенчмаркам MMLU и HumanEval. Это худший показатель эффективности за всю историю OpenAI.

Индустрия достигла точки, где масштабирование перестало работать, но никто не хочет в этом признаваться. Anthropic тратит $4 млрд на Claude-4, Google удваивает бюджет Gemini, а результат один: астрономические затраты ради маргинальных улучшений. Мы наблюдаем не прогресс, а отчаянную попытку спрятать технологический тупик за маркетинговым шумом.