Sherpa.ai решила проблему приватности, которой на самом деле не существует

Сегодня • arXiv cs.AI
Sherpa.ai представила технологию «приватного выравнивания сущностей без раскрытия пересечений». Звучит как прорыв в защите данных. Но копните глубже — и окажется, что компания решает не проблему приватности, а проблему монополизации.

Общепринятая мудрость гласит: главная проблема современного AI — это приватность данных. Компании не могут делиться информацией для обучения моделей, потому что боятся утечек. Sherpa.ai предлагает элегантное решение: их алгоритм позволяет нескольким сторонам сопоставлять записи о людях и объектах, не раскрывая сами данные.

Но что если настоящая проблема не в приватности, а в контроле? Технология Sherpa.ai работает с «зашумлёнными идентификаторами» — искажёнными версиями реальных данных. Это означает, что компания фактически становится посредником между организациями, контролируя процесс сопоставления. Вместо демократизации данных получается новый уровень централизации.

Ещё интереснее детали: алгоритм специально разработан для работы с неточными данными. Это не баг, а фича. Sherpa.ai позиционирует себя как незаменимого арбитра в мире, где «чистых» данных просто не существует. Классический ход — создать проблему, а затем продать решение.