赶上最新的AI论文

GAN]NVIDIA在极小的数据集上实现了高精度的GAN! 什么是扩容ADA,不用过度训练!

生成对抗网络(GAN)

三个要点
✔️ 英伟达研究团队在极小的数据集上实现了高精度的GAN
✔️ 
使用新的增强方法ADA防止过度训练。
✔️引入概率和增强的概念并不会降低准确性

Training Generative Adversarial Networks with Limited Data
written by 
Tero KarrasMiika AittalaJanne HellstenSamuli LaineJaakko LehtinenTimo Aila
(Submitted on 11 Jun 2020 (v1), last revised 7 Oct 2020 (this version, v2))
Comments: Project website: this https URL
Subjects: Computer Vision and Pattern Recognition (cs.CV); Machine Learning (cs.LG); Neural and Evolutionary Computing (cs.NE); Machine Learning (stat.ML)
 official

comm

1. 导言

近年来,GANs的显著发展是利用海量的在线图像数据实现的,但在特定对象、地点、时间的约束下,收集如此大量的图像是非常困难的。然而,在特定对象、地点、时间等约束下,收集如此大量的图像是非常困难的,另一方面,Discriminator有可能在只有少量数据集的情况下过度学习。在大多数深度学习领域,数据增强是用来防止过度学习的,比如改变角度或添加噪声。然而,GANs中的数据增强可能会导致完全不理想的图像,即使数据集同样是增强的。例如,使用有噪声的数据集也会给GAN产生的图像增加噪声。

在本文中,我们使用数据增强来防止Discriminator的过度训练,并防止添加的噪声在生成的图像中被反射。首先,我们全面分析了Data Augmentation在什么条件下可以防止噪声加入到生成的图像中,然后我们设计了各种Data Augmentation方法,以实现不受数据集条件影响的相同方法。我们还表明,StyleGAN2可以在几千个小数据集上取得很好的结果,在CIFAR-10基准上也可以取得很好的结果,由于数据集数量有限,结果一直很低迷。我们还提供了一个新的数据集,用于在有限的METFACES数据集的条件下进行基准测试。

要阅读更多。

你需要在AI-SCHOLAR注册。

1分钟内免费轻松注册

  • メルマガ登録(ver
  • ライター
  • エンジニア_大募集!!

如果您对文章内容有任何改进建议等,请通过 "联系我们 "表格与爱学网编辑部联系。
如果您能通过咨询表与我们联系,我们将非常感激。

联系我们