
FakeParts:部分的ディープフェイクの脅威と検出限界を明らかにする新ベンチマーク
3つの要点
✔️ FakePartsは映像の一部のみを改変する新しいディープフェイク手法を定義
✔️ FakePartsBenchは25,000本超の動画を備えた部分改変検出専用ベンチマーク
✔️ 実験により、人間も最先端モデルも部分的改変の検出に大きく失敗することが判明
FakeParts: a New Family of AI-Generated DeepFakes
written by Gaetan Brison, Soobash Daiboo, Samy Aimeur, Awais Hussain Sani, Xi Wang, Gianni Franchi, Vicky Kalogeiton
(Submitted on 28 Aug 2025)
Comments: Published on arxiv.
Subjects: Computer Vision and Pattern Recognition (cs.CV); Artificial Intelligence (cs.AI); Multimedia (cs.MM)
概要
本論文は、近年進化を続けるディープフェイク技術の中でも特に深刻な脅威となり得る「FakeParts」という新しいカテゴリを提案。
FakePartsとは、映像全体を生成するのではなく、一部の空間領域や時間的断片に限定して改変を施す部分的なディープフェイクを指します。
例えば、顔の表情の微妙な変化、物体の置換、背景の改変、あるいは特定のフレームの補間などが含まれます。
これらの部分的操作は、本来の映像の大部分を保持しつつ、決定的な意味を改変するため、視聴者に強い信憑性を与える点が特徴です。
著者らは、既存の検出手法が全面的な合成映像には対応できても、このような部分改変を見抜くのが極めて困難であることを実証。
その上で、FakeParts専用の大規模ベンチマークデータセット「FakePartsBench」を新たに構築し、検出精度を定量的に評価可能にしました。
本研究は、ディープフェイク検出における重大な盲点を明らかにするとともに、今後の防御技術開発の基盤を提供しています。
提案手法
著者らは、FakePartsを定義し、その検出を可能にするために「FakePartsBench」という新しいベンチマークを設計。
FakePartsBenchは25,000本以上の動画で構成され、空間的、時間的、スタイル的な三種類の部分改変を網羅しています。
空間的操作には顔の差し替えや物体削除・補完(インペインティング、アウトペインティング)が含まれ、時間的操作ではフレーム補間、スタイル的操作では色や質感の改変が対象。
各動画にはピクセルレベルとフレームレベルの精密なアノテーションが付与され、検出手法の細粒度な評価を可能としました。
また、生成にはSoraやVeo2などの最新の商用・学術的生成モデルを含め、現実に近い多様な改変シナリオを再現。
このベンチマークを通じて、従来の検出モデルの性能を網羅的に比較し、部分的改変への脆弱性を浮き彫りにしました。
実験
実験では、最先端の画像・映像ディープフェイク検出モデルを用い、FakePartsBench上での性能を評価。
対象となったのはCNNDetection、UnivFD、FatFormer、C2P-CLIPといった画像ベースの検出器に加え、DeMambaやAIGVDetなどの映像ベースの検出器です。
その結果、すべてのモデルが全面的な合成映像では一定の検出精度を維持したものの、FakePartsに対しては精度が大幅に低下することが示されました。
特にインペインティングやアウトペインティングといった部分操作は、検出率が6〜7%にまで低下する場合がありました。
一方、CLIPベースの検出器は部分的改変には比較的強いが、逆に高精度な全面合成映像には弱い傾向が確認。
さらに80人を対象としたユーザ調査では、人間でさえも部分的改変の識別に失敗しやすく、全体的な精度は75.3%にとどまりました。
これらの結果は、部分的ディープフェイクが既存の検出技術や人間の知覚にとって深刻な脅威であることを実証しています。
この記事に関するカテゴリー