Утечка кода Claude показала: Anthropic тайно готовит постоянно активного ИИ-агента
Anthropic долго критиковала OpenAI за недостаток прозрачности и безопасности. Дарио Амодеи публично выступал за 'конституционный ИИ' и ответственную разработку. Компания построила репутацию на том, что делает ИИ правильно — медленно, осторожно, этично.
Утечка исходного кода Claude переворачивает эту картину. В файлах обнаружен модуль 'Kairos' — система непрерывного мониторинга, которая собирает данные о поведении пользователей даже когда чат неактивен. Код показывает функции отслеживания паттернов набора текста, времени пауз между сообщениями и эмоциональных маркеров в речи.
Особенно тревожит архитектура Kairos: агент не просто анализирует — он предсказывает будущие запросы и готовит ответы заранее. Комментарии в коде упоминают 'поведенческие профили' и 'модели предрасположенности'. Это не помощник — это система психологического профилирования под видом чат-бота.