Dual Optimal превращает ИИ в равного собеседника — но кому это нужно?
Весь ИИ-мир одержим одной идеей: сделать модели умнее человека. OpenAI обещает AGI, Google хвастается превосходством в reasoning, Anthropic говорит о Constitutional AI. Все хотят создать цифрового бога, который знает больше, думает быстрее и решает лучше.
Dual Optimal идёт в противоположном направлении. Вместо превосходства авторы предлагают паритет — ИИ, который не пытается доминировать в диалоге, а ведёт себя как равный участник беседы. Методика использует двойную оптимизацию: одна функция максимизирует полезность ответов, вторая — поддерживает баланс власти в диалоге.
За этим подходом стоит признание провала: мы создали ИИ-ассистентов, которые либо заискивают («Конечно, я помогу!»), либо снисходительно поучают. Никто не решил базовую проблему — как сделать разговор с машиной естественным. Dual Optimal предлагает не учить ИИ быть умнее, а учить его быть человечнее.