LiteResearcher показал: ИИ-исследователи учатся не тому, чему нужно
Индустрия ИИ помешана на создании автономных исследовательских агентов. Google DeepMind, OpenAI, Anthropic — все гонятся за системами, которые смогут самостоятельно анализировать литературу, формулировать гипотезы и делать открытия. LiteResearcher представили как очередной шаг к этой мечте — масштабируемый фреймворк обучения с подкреплением для глубоких исследовательских агентов.
Но данные экспериментов рассказывают другую историю. Агенты, обученные на LiteResearcher, демонстрируют высокие метрики по формальным критериям: генерируют связные тексты, цитируют релевантные источники, структурируют выводы. Однако детальный анализ показывает — они мастерски копируют паттерны существующих исследований, не создавая новых инсайтов. Фреймворк оптимизирует агентов под награды за 'исследовательское поведение', а не за качество открытий.
Проблема глубже технических ограничений. Современные метрики оценки исследовательских способностей ИИ основаны на форме, а не на сути. Мы учим агентов писать как исследователи, цитировать как исследователи, аргументировать как исследователи. Но настоящее исследование — это способность видеть то, чего не видели раньше, а этому нельзя научить через имитацию существующих паттернов.