Microsoft: один метод не остановит deepfake

Новый отчёт Microsoft показывает: бороться с deepfake одной технологией невозможно — проверка подлинности медиа должна комбинировать несколько методов. Для пользователей и платформ это означает: доверять стоит только контенту с подтверждённым происхождением и несколькими сигналами проверки.

Исследование анализирует три подхода: provenance‑метаданные, водяные знаки и цифровые отпечатки. Наиболее надёжной считается комбинация C2PA‑происхождения и незаметного watermark. Но даже такие системы можно обмануть: небольшие правки могут заставить валидаторы ошибочно считать реальный контент фейком. Поэтому индустрия движется к модели «high‑confidence authentication» — нескольким уровням проверки.

🔗 https://www.microsoft.com/en-us/microsoft-cloud/blog/2026/03/12/a-new-study-explores-how-ai-shapes-what-you-can-trust-online/

#deepfakes #C2PA #contentauthenticity #AIsecurity #digitalprovenance

Microsoft: один метод не остановит deepfake
Новый отчёт Microsoft показывает: бороться с deepfake одной технологией невозможно — проверка подлинности медиа должна комбинировать несколько методов | Сетка — социальная сеть от hh.ru