最新AI論文をキャッチアップ

1枚の画像から表情変換を実現!U-Netベースの新たな表情変換モデル「FaR-GAN」

1枚の画像から表情変換を実現!U-Netベースの新たな表情変換モデル「FaR-GAN」

GAN(敵対的生成ネットワーク)

3つの要点
✔️ 1枚のソース画像から表情変換を実現
✔️ U-Netをベースにしたシンプルなアーキテクチャ   

✔️ SPADE module、Noise Block、self-attentionを追加することでより現実味のある画像を生成

FaR-GAN for One-Shot Face Reenactment
written by Hanxiang Hao,Sriram Baireddy,Amy R. Reibman,Edward J. Delp
(Submitted on 13 May 2020)

Comments: Published by CVPR 2020
Subjects: Computer Vision and Pattern Recognition (cs.CV)

記事中の画像や図表はすべて上記の論文から引用しています。

概要

今までも表情変換のモデルは多く登場していますが、それらは生成画像の質が悪かったり、画像ごとにfew-shot learningが必要だったりといった課題が存在します。今回紹介する「FaR-GAN」は、一度大規模なデータセットで学習させた後、データセットに含まれていない人物でも1枚の画像から高品質な画像変換を実現しています。

以下がFaR-GANの生成画像です。左の2枚がソース画像、上の4枚がターゲット画像を表し、これらをモデルの入力としています。Reenacted Resultsが生成画像で、ターゲット画像の表情をしたソース画像の人物の顔となっています。

続きを読むには

(3413文字画像11枚)

AI-SCHOLARに
登録いただく必要があります。

1分で無料で簡単登録する

または
  • メルマガ登録(ver
  • ライター
  • エンジニア_大募集!!
けやみぃ avatar
京都大学工学部1回生です。GANを使った画像生成・画像変換に興味があります。

記事の内容等について改善箇所などございましたら、
お問い合わせフォームよりAI-SCHOLAR編集部の方にご連絡を頂けますと幸いです。
どうぞよろしくお願いします。

お問い合わせする