OpenAI, Google и Anthropic объединились против воров — но защищают не то
Официально компании борются с нарушителями Terms of Service, которые используют adversarial distillation — технику извлечения знаний из больших моделей в меньшие. Три гиганта делятся данными о подозрительных запросах, координируют блокировки и защищают свои многомиллиардные инвестиции от воров.
Но adversarial distillation — это не только кража. Это основная технология, которая позволяет создавать эффективные open-source модели без астрономических бюджетов на обучение. DeepSeek, Qwen и другие китайские модели используют именно эти методы, чтобы достигать качества GPT-4 за долю от стоимости. Альянс фактически блокирует не воровство, а демократизацию ИИ.
Данные Frontier Model Forum показывают: 78% заблокированных запросов приходят из академических институтов и стартапов, разрабатывающих альтернативы. Пока тройка координирует защиту от 'нарушителей', китайские компании обучают модели на собственных данных, обходя западную зависимость полностью.