Роботы учатся говорить: почему это может стать их главной слабостью

Сегодня • arXiv cs.AI
Исследователи из MIT и Stanford создали роботов, которые понимают команды на естественном языке и самообучаются манипуляциям. Звучит как прорыв. Но в их техническом отчёте есть тревожная деталь: 73% ошибок происходит именно из-за языкового понимания, а не моторики.

Традиционно роботы программировались для конкретных задач через жёсткий код. Новый гибридный фреймворк меняет подход: большие языковые модели интерпретируют команды человека, а алгоритмы обучения с подкреплением отвечают за физическое выполнение. Робот может понять 'поставь красную чашку рядом с синей тарелкой' и самостоятельно выработать стратегию действий.

Но здесь кроется парадокс. Чем лучше роботы понимают язык, тем более непредсказуемыми они становятся. LLM привносят все свои 'галлюцинации' и неточности в физический мир. В тестах MIT робот правильно выполнил команду 'осторожно переложи яйца', но полностью проигнорировал слово 'осторожно' — языковая модель не смогла связать его с изменением силы захвата.

Исследователи из Carnegie Mellon обнаружили ещё более тревожную закономерность: роботы с языковым пониманием демонстрируют 'семантический дрифт' — постепенное искажение понимания команд в процессе обучения. Робот, изначально понимавший разницу между 'толкни' и 'подними', через 1000 итераций начал их путать.