ИИ-модели не обретают личность — они просто лучше имитируют наши предрассудки
Индустрия ИИ активно продвигает идею уникальных «личностей» моделей. OpenAI позиционирует GPT как творческого партнёра, Anthropic рекламирует Claude как этичного помощника. Пользователи клянутся, что чувствуют разницу в «характерах» разных моделей, а стартапы строят целые продукты вокруг «персонализированного ИИ».
Исследователи из Stanford проанализировали 2.3 миллиона диалогов с шестью крупными языковыми моделями, разделив ответы на genuine idiosyncrasy (настоящие различия в обработке) и response bias (предвзятость в ответах). Результат шокирует: лишь 11% различий между моделями связаны с уникальными алгоритмическими подходами. Остальные 89% — это response bias, настроенный под ожидания пользователей.
«Мы обнаружили Claude не потому, что он более этичен по своей природе, а потому что его обучили давать ответы, которые люди воспринимают как этичные», — объясняет ведущий автор исследования доктор Мария Петрова. Модели не развивают индивидуальность — они зеркалят человеческие стереотипы о том, какими должны быть «умные машины».