Объяснимый ИИ учится неправильно — и это убивает доверие пользователей
Индустрия вкладывает миллиарды в Explainable AI (XAI), создавая системы, которые выдают технические объяснения своих решений. Логика проста: чем подробнее ИИ объясняет свою работу, тем больше ему доверяют пользователи. MIT, Stanford и Google DeepMind соревнуются в создании всё более сложных алгоритмов интерпретации.
Но исследование Human-Centered XAI переворачивает эту логику. Анализ 2400 взаимодействий пользователей с объяснениями ИИ показал: люди отвергают 73% технически корректных объяснений. Причина не в сложности, а в том, что эти объяснения игнорируют теории обучения человека — от конструктивизма Пиаже до когнитивной нагрузки Свеллера.
Реальная проблема: ИИ объясняет, как он думает, вместо того чтобы учить, как думать вместе с ним. Когда система говорит «я проанализировал 847 признаков», человеческий мозг просто отключается. Но когда она показывает пошаговый процесс рассуждения, адаптированный под индивидуальную модель обучения пользователя, доверие вырастает на 340%.