フェイク画像が見破れない!?Deepfake Detector を欺く「Adversarial Deepfakes」とは?
3つの要点
✔️ Deepfake Detectorの脆弱性を検証
✔️ Adversarial Example によって White-box/Black-box の両方で Deepfake Detector を無効化することに成功
✔️ Adversarial Example に効果的とされる圧縮などの画像変換に対しても堅牢性の高いモデルを構築
Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples
written by Paarth Neekhara, Shehzeen Hussain, Malhar Jere, Farinaz Koushanfar, Julian McAuley
(Submitted on9 Feb 2020 (v1), last revised 14 Mar 2020 (this version, v2))
subjects : Computer Vision and Pattern Recognition (cs.CV)
Deepfake は、嘘情報を信じ込ませて人を騙す悪意のあるものが多く、生活に実害をもたらす可能性があります。
現在も Deepfake Detectorは盛んに研究されていますが、そのほとんどは単純に作成された偽動画を検出するNon-Adaptive Adversaryが想定されています。しかし、実際にDeepfake Detectorを使うことを考えると、何らかの防御がされうるAdaptive Adversaryについても想定しておくことが大切です。(高精度なDeepfakeが実は欺かれている可能性は十分にあります。)
そこで、この論文では、AttackerがDeepfake Detectorの完全あるいは部分的な情報にアクセスできれば、Deepfake Detectorを簡単に無効化できる方法を示しまています。
続きを読むには
(8637文字画像24枚)AI-SCHOLARに
登録いただく必要があります。
この記事に関するカテゴリー