ИИ учится не думать: почему «голосование большинством» убивает машинное обучение

Сегодня • arXiv cs.CL
В машинном обучении есть золотое правило: если большинство моделей согласны — результат надёжен. Но свежее исследование Stanford AI Lab разрушает эту веру: «голосование большинством» не улучшает ИИ, а делает его ленивым и предсказуемо глупым.

Метод majority voting считается краеугольным камнем надёжного ИИ. Логика проста: запусти несколько моделей на одной задаче, пусть проголосуют, победит большинство. Техгиганты строят на этом принципе целые системы, от рекомендаций YouTube до медицинской диагностики. Консенсус = качество, учат в Stanford и MIT.

Но исследователи обнаружили парадокс: модели в majority voting не учатся решать сложные задачи — они учатся соглашаться друг с другом. Вместо поиска правильного ответа система оптимизирует консенсус, создавая «эхо-камеру алгоритмов». Результат: 73% снижение способности обрабатывать edge cases и 45% падение производительности на нестандартных задачах.

Альтернатива — fine-grained reward signals, где каждая модель получает детализированную обратную связь вместо простого «да/нет» от соседей. Этот подход показал 67% улучшение в test-time learning и способность решать задачи, которые ставили в тупик majority voting системы. Но он требует в 3 раза больше вычислительных ресурсов.