Google выпустил специализированные TPU для агентов — но они решают не ту проблему
Conventional wisdom гласит: агенты провалились из-за недостатка вычислительной мощности. Google, очевидно, согласен — новые Trillium TPU v6 обещают в 4.7 раза больше производительности для обучения агентов. Логика простая: больше FLOPS = умнее агенты = решённые проблемы автономности.
Но данные Anthropic и OpenAI рассказывают другую историю. Claude и GPT-4 уже имеют доступ к огромным вычислительным ресурсам, однако в 73% случаев зависают на multi-step задачах дольше 10 минут. Проблема не в том, что модели медленно думают — они не знают, КАК думать последовательно.
Реальный bottleneck агентов — архитектурный. Transformer'ы обучены предсказывать следующий токен, а не планировать цепочки действий. Никакое количество TPU не научит модель тому, чему она принципиально не может научиться: долгосрочному планированию без exponential error accumulation.
Инсайдеры Google признают: новые TPU — это hedge bet. Пока неизвестно, будут ли будущие агенты использовать нейросети вообще. Reinforcement learning, symbolic reasoning, hybrid architectures — всё это требует совсем другого железа.