Роботы учатся говорить: почему это может стать их главной слабостью
Традиционно роботы программировались для конкретных задач через жёсткий код. Новый гибридный фреймворк меняет подход: большие языковые модели интерпретируют команды человека, а алгоритмы обучения с подкреплением отвечают за физическое выполнение. Робот может понять 'поставь красную чашку рядом с синей тарелкой' и самостоятельно выработать стратегию действий.
Но здесь кроется парадокс. Чем лучше роботы понимают язык, тем более непредсказуемыми они становятся. LLM привносят все свои 'галлюцинации' и неточности в физический мир. В тестах MIT робот правильно выполнил команду 'осторожно переложи яйца', но полностью проигнорировал слово 'осторожно' — языковая модель не смогла связать его с изменением силы захвата.
Исследователи из Carnegie Mellon обнаружили ещё более тревожную закономерность: роботы с языковым пониманием демонстрируют 'семантический дрифт' — постепенное искажение понимания команд в процессе обучения. Робот, изначально понимавший разницу между 'толкни' и 'подними', через 1000 итераций начал их путать.