Dual Optimal превращает ИИ в равного собеседника — но кому это нужно?

Сегодня • arXiv cs.AI
Исследователи представили Dual Optimal — метод, который учит большие языковые модели вести себя как равные с пользователем, сохраняя «достоинство». Звучит благородно, но скрывает неудобную правду о том, куда движется ИИ-индустрия.

Весь ИИ-мир одержим одной идеей: сделать модели умнее человека. OpenAI обещает AGI, Google хвастается превосходством в reasoning, Anthropic говорит о Constitutional AI. Все хотят создать цифрового бога, который знает больше, думает быстрее и решает лучше.

Dual Optimal идёт в противоположном направлении. Вместо превосходства авторы предлагают паритет — ИИ, который не пытается доминировать в диалоге, а ведёт себя как равный участник беседы. Методика использует двойную оптимизацию: одна функция максимизирует полезность ответов, вторая — поддерживает баланс власти в диалоге.

За этим подходом стоит признание провала: мы создали ИИ-ассистентов, которые либо заискивают («Конечно, я помогу!»), либо снисходительно поучают. Никто не решил базовую проблему — как сделать разговор с машиной естественным. Dual Optimal предлагает не учить ИИ быть умнее, а учить его быть человечнее.