最新AI論文をキャッチアップ

フェイク画像が見破れない!?Deepfake Detector を欺く「Adversarial Deepfakes」とは?

フェイク画像が見破れない!?Deepfake Detector を欺く「Adversarial Deepfakes」とは?

deepfake

3つの要点

✔️ Deepfake Detectorの脆弱性を検証
✔️ Adversarial Example によって White-box/Black-box の両方で Deepfake Detector を無効化することに成功
✔️ Adversarial Example に効果的とされる圧縮などの画像変換に対しても堅牢性の高いモデルを構築

 

Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples

written by Paarth NeekharaShehzeen HussainMalhar JereFarinaz KoushanfarJulian McAuley
(Submitted on9 Feb 2020 (v1), last revised 14 Mar 2020 (this version, v2))
subjects : Computer Vision and Pattern Recognition (cs.CV)

 

概要

Deepfake は、嘘情報を信じ込ませて人を騙す悪意のあるものが多く、生活に実害をもたらす可能性があります。

現在も Deepfake Detectorは盛んに研究されていますが、そのほとんどは単純に作成された偽動画を検出するNon-Adaptive Adversaryが想定されています。しかし、実際にDeepfake Detectorを使うことを考えると、何らかの防御がされうるAdaptive Adversaryについても想定しておくことが大切です。(高精度なDeepfakeが実は欺かれている可能性は十分にあります。)

そこで、この論文では、AttackerがDeepfake Detectorの完全あるいは部分的な情報にアクセスできれば、Deepfake Detectorを簡単に無効化できる方法を示しまています。

続きを読むには

(8637文字画像24枚)

AI-SCHOLARに
登録いただく必要があります。

1分で無料で簡単登録する

または

記事の内容等について改善箇所などございましたら、
お問い合わせフォームよりAI-SCHOLAR編集部の方にご連絡を頂けますと幸いです。
どうぞよろしくお願いします。

お問い合わせする