赶上最新的AI论文

不使用阴性样品Self-Supervised Learning! BYOL!

自监督学习

三个要点
✔️ 不需要Negative sample的Self-Supervised Learning
✔️ 能避免Batch size、Data Augmentation的影响

✔️ 关于ImageNet的分类任务等,达成比至今的Contrastive Learning更好的精度

Bootstrap Your Own Latent: A New Approach to Self-Supervised Learning
written by Jean-Bastien GrillFlorian StrubFlorent AltchéCorentin TallecPierre H. RichemondElena BuchatskayaCarl DoerschBernardo Avila PiresZhaohan Daniel GuoMohammad Gheshlaghi AzarBilal PiotKoray KavukcuogluRémi MunosMichal Valko
(Submitted on 13 Jun 2020)

Comments: Published by arXiv
Subjects: Machine Learning (cs.LG); Computer Vision and Pattern Recognition (cs.CV); Machine Learning (stat.ML)

Code Google Colab

介绍

DeepMind提出了一种新的自监督学习方法Bootstrap Your Own Latent(BYOL).自监督学习是无监督学习的一种,它是一种标在这种类型的学习中,教师是由输入数据本身创建的,而不使用自我监督学习。例如,自监督学习可以通过隐藏一部分图像数据,并对未隐藏的部分图像数据作为输入进行预测,从而学习图像的表示。

在传统的著名模型如SimCLRMoCO中,数据上的Augmentation称为Anchor,同一数据上的另一个Augmentation称为Positive sample,而另一个图像上的Augmentation则称为他们通过将锚的预测靠近正样本的预测,远离Neagtie样本的预测,来学习负样本的表示。相比之下,本文采用不使用阴性样品的方法。

要阅读更多。

你需要在AI-SCHOLAR注册。

1分钟内免费轻松注册

  • メルマガ登録(ver
  • ライター
  • エンジニア_大募集!!

如果您对文章内容有任何改进建议等,请通过 "联系我们 "表格与爱学网编辑部联系。
如果您能通过咨询表与我们联系,我们将非常感激。

联系我们