Утечка кода Claude: Anthropic случайно показала, что ИИ работает не так

Сегодня • CNBC Tech
Anthropic «случайно» слила фрагменты исходного кода Claude в публичный репозиторий. Все говорят о нарушении безопасности и корпоративных секретах. Но настоящая история — в строчках кода, которые показывают: ИИ «думает» совсем не так, как нам рассказывают.

Стандартная реакция на утечку предсказуема: эксперты обсуждают угрозы конкурентной разведки, журналисты пишут о корпоративной неосторожности, а Anthropic спешно удаляет компрометирующие файлы. Индустрия привыкла воспринимать такие инциденты через призму коммерческих рисков и репутационного ущерба.

Но анализ слитого кода показывает нечто более фундаментальное. В архитектуре Claude обнаружены массивные блоки hardcoded правил — тысячи явно прописанных инструкций для обработки специфических сценариев. Это не элегантное «машинное обучение», а гигантская база данных if-then условий, обёрнутая в нейросетевую оболочку.

Получается, что «понимание» Claude — это не эмерджентное свойство обучения, а результат ручного программирования. Anthropic фактически создала самую дорогую в мире экспертную систему, замаскированную под ИИ. Инженеры компании потратили месяцы на кодирование реакций на миллионы возможных запросов, а не на создание системы, способной к настоящему пониманию.