TRACE от учёных нашёл дипфейки без обучения — но это плохие новости
Общепринятая мудрость гласит: чтобы поймать дипфейк, нужна AI-модель, обученная на тысячах примеров подделок. TRACE ломает эту логику — анализирует траектории эмбеддингов в речевых foundation-моделях и находит аномалии без единого примера обучения.
Но вот переворот: TRACE работает только с 'partial deepfakes' — записями, где поддельные фрагменты смешаны с настоящими. Полностью синтетическую речь он не распознаёт. Это не баг — это фича, которая раскрывает реальную угрозу.
Создатели дипфейков уже поняли: полная подделка слишком очевидна. Будущее — в хирургической точности: заменить одно слово в показаниях свидетеля, вставить фразу в речь политика. TRACE находит именно такие 'швы' между настоящим и поддельным, анализируя непоследовательности в речевых паттернах.
Исследование показывает точность 94.9% на датасете PartialSpoof, но авторы честно признают: против полностью синтетических голосов метод бессилен. Это не недоработка — это зеркало того, куда движется индустрия фальшивок.