OpenAI выпустил Privacy Filter: почему защита данных стала признанием проблемы
Privacy Filter выглядит как типичный PR-ход: 1,5 миллиарда параметров, открытые веса, благородная миссия защиты персональных данных в тексте. OpenAI позиционирует релиз как вклад в безопасность AI-экосистемы, подчёркивая 50 миллионов активных параметров для точной идентификации PII-данных.
Но timing выдаёт истинные мотивы. Privacy Filter появился через месяц после скандала с утечкой разговоров пользователей ChatGPT и за неделю до слушаний в Конгрессе о защите данных в AI-системах. Открытая модель — это не альтруизм, а попытка переложить ответственность на разработчиков.
Ещё показательнее архитектура: модель умеет только маскировать данные, но не предотвращать их попадание в обучающие датасеты. OpenAI фактически признала, что её основные модели уже 'заражены' персональной информацией, и теперь нужны костыли для постобработки. Privacy Filter — это пластырь на проблему, которую создала сама компания.