TRACE от учёных нашёл дипфейки без обучения — но это плохие новости

Сегодня • arXiv cs.AI
Исследователи представили TRACE — систему, которая находит аудио-дипфейки без предварительного обучения. Звучит как прорыв, но есть нюанс: она работает только с частично поддельными записями, а это означает кое-что тревожное о будущем аудио-фальшивок.

Общепринятая мудрость гласит: чтобы поймать дипфейк, нужна AI-модель, обученная на тысячах примеров подделок. TRACE ломает эту логику — анализирует траектории эмбеддингов в речевых foundation-моделях и находит аномалии без единого примера обучения.

Но вот переворот: TRACE работает только с 'partial deepfakes' — записями, где поддельные фрагменты смешаны с настоящими. Полностью синтетическую речь он не распознаёт. Это не баг — это фича, которая раскрывает реальную угрозу.

Создатели дипфейков уже поняли: полная подделка слишком очевидна. Будущее — в хирургической точности: заменить одно слово в показаниях свидетеля, вставить фразу в речь политика. TRACE находит именно такие 'швы' между настоящим и поддельным, анализируя непоследовательности в речевых паттернах.

Исследование показывает точность 94.9% на датасете PartialSpoof, но авторы честно признают: против полностью синтетических голосов метод бессилен. Это не недоработка — это зеркало того, куда движется индустрия фальшивок.