Утечка кода Claude: Anthropic случайно показала, что ИИ работает не так
Стандартная реакция на утечку предсказуема: эксперты обсуждают угрозы конкурентной разведки, журналисты пишут о корпоративной неосторожности, а Anthropic спешно удаляет компрометирующие файлы. Индустрия привыкла воспринимать такие инциденты через призму коммерческих рисков и репутационного ущерба.
Но анализ слитого кода показывает нечто более фундаментальное. В архитектуре Claude обнаружены массивные блоки hardcoded правил — тысячи явно прописанных инструкций для обработки специфических сценариев. Это не элегантное «машинное обучение», а гигантская база данных if-then условий, обёрнутая в нейросетевую оболочку.
Получается, что «понимание» Claude — это не эмерджентное свойство обучения, а результат ручного программирования. Anthropic фактически создала самую дорогую в мире экспертную систему, замаскированную под ИИ. Инженеры компании потратили месяцы на кодирование реакций на миллионы возможных запросов, а не на создание системы, способной к настоящему пониманию.