赶上最新的AI论文

FakeParts:一个新的基准,揭示了部分深度伪造的威胁和检测极限

FakeParts:一个新的基准,揭示了部分深度伪造的威胁和检测极限

三个要点
✔️ FakeParts 定义了一种新的深度伪造方法,该方法只对视频的部分内容进行修改
✔️ FakePartsBench 是一个专门的部分修改检测基准测试平台,包含超过 25,000 个视频
✔️ 实验表明,人类和最先进的模型在很大程度上都无法检测到部分修改。

FakeParts: a New Family of AI-Generated DeepFakes
written by Gaetan BrisonSoobash DaibooSamy AimeurAwais Hussain SaniXi WangGianni FranchiVicky Kalogeiton
(Submitted on 28 Aug 2025)
Comments: Published on arxiv.
Subjects: Computer Vision and Pattern Recognition (cs.CV); Artificial Intelligence (cs.AI); Multimedia (cs.MM)

本文所使用的图片要么来自论文、介绍性幻灯片,要么是参考这些图片制作的。

摘要

本文提出了一种新的深度伪造技术,称为 "FakeParts",这种技术近年来不断发展,可能构成严重威胁。
FakeParts指的是部分深度伪造,即修改仅限于某些空间区域或时间片段,而不是生成整个视频。FakeParts 可用于创建一类新的图像。

例子包括面部表情的细微变化、物体替换、背景修改或特定帧的插值。
这些局部篡改的特点是对观众来说可信度很高,因为它们保留了原始视频的大部分内容,但改变了其明确的含义。

作者证明,现有的检测方法能够处理完全合成的镜头,但却很难检测到这种局部改动。
在此基础上,他们构建了一个专门针对 FakeParts 的新的大规模基准数据集 FakePartsBench,以便对检测精度进行定量评估。

这项研究揭示了深度伪造检测中的一个关键盲点,为开发未来的防御技术奠定了基础。

建议的方法

作者设计了一个名为 "FakePartsBench "的新基准来定义 FakeParts 并对其进行检测。
FakePartsBench包含超过 25,000 个视频,涵盖三种类型的局部修改:空间、时间和风格。

空间处理包括人脸替换和物体删除/补全(内画和外画),时间处理包括帧插值,风格处理包括颜色和纹理修改。
每段视频都有精确的像素和帧级注释,以便对检测方法进行精细评估。

在生成方面,重现了各种真实的修改场景,包括最新的商业和学术生成模型,如 Sora 和 Veo2。
通过这种基准测试,对传统检测模型的性能进行了详尽的比较,突出了它们在部分修改情况下的脆弱性。

实验

实验使用了最先进的图像和视频深度防伪检测模型,并在 FakePartsBench 上对其性能进行了评估。
实验对象包括 CNNDetection、UnivFD、FatFormer 和 C2P-CLIP 等基于图像的检测器,以及 DeMamba 和 AIGVDet 等基于视频的检测器。

结果表明,所有模型对全合成视频都保持了一定的检测精度,但对 FakeParts 的检测精度明显降低。
部分操作,特别是内绘制和外绘制,有时会将检测率降低到 6-7%。

另一方面,基于 CLIP 的检测器对局部修改的识别能力相对较强,但对高精度的全场合成图像的识别能力则相对较弱。
此外,对 80 名用户进行的用户研究表明,即使是人类也很容易无法识别局部修改,总体准确率仅为 75.3%。

这些结果表明,局部深度伪造是对现有检测技术和人类感知的严重威胁。

  • メルマガ登録(ver
  • ライター
  • エンジニア_大募集!!

如果您对文章内容有任何改进建议等,请通过 "联系我们 "表格与爱学网编辑部联系。
如果您能通过咨询表与我们联系,我们将非常感激。

联系我们