ИИ учится на ошибках: почему это признак отчаяния, а не прогресса

Сегодня • arXiv cs.AI
Исследователи научили ИИ-агентов анализировать собственные ошибки и учиться на них через рефлексию. Звучит как прорыв. Но копните глубже — и обнаружите признание: мы исчерпали данные для обучения.

Experiential Reflective Learning — новая методика, где ИИ-агенты ведут дневники своих неудач, анализируют провальные решения и корректируют поведение. Исследователи из MIT и Stanford показали рост производительности на 23% в задачах планирования. Индустрия празднует: наконец-то ИИ учится как человек.

Но вот парадокс: эта техника появилась именно сейчас не случайно. Качественные обучающие данные в интернете заканчиваются — OpenAI и Google уже переварили весь Reddit, Wikipedia и Stack Overflow. Когда внешних данных нет, остается одно: заставить модель генерировать данные самой для себя.

Проблема в том, что модель не может стать умнее самой себя через саморефлексию. Она может лишь лучше использовать уже имеющиеся знания. Это как студент, который перечитывает один учебник сто раз вместо изучения новых предметов. Улучшение есть, но потолок жестко ограничен.