最新AI論文をキャッチアップ

DeepClusterを越える、自己教師あり表現学習の新手法「SeLa」を詳解!

DeepClusterを越える、自己教師あり表現学習の新手法「SeLa」を詳解!

self-supervised learning

3つの要点
✔️ 完全教師なしでラベリングと特徴表現の両方を学習する「SeLa」を提案
✔️
表現学習と自己ラベリングに共通の学習目的を定め、最適輸送問題として定式化
✔️ SVHN、CIFAR-10、CIFAR-100、ImageNetでDeepClusterを上回る結果

Self-labelling via simultaneous clustering and representation learning
written by Yuki Markus Asano,Christian Rupprecht,Andrea Vedaldi
(Submitted on 13 Nov 2019 (v1), last revised 19 Feb 2020 (this version, v3))

Comments: Published by ICLR 2020
Subjects: Computer Vision and Pattern Recognition (cs.CV); Neural and Evolutionary Computing (cs.NE)

はじめに

自己教師あり学習で有用な表現を学習する新しい手法の紹介になります。先行研究にはTwitterなどでも話題になったことがあるDeep Clusterがあります。これらの手法は擬似ラベルの発見とそれを使った学習というプロセスを繰り返して最適化を行っていきます。

ここで、クラスタリングと表現学習を共通の目的に従って最適化する事で既存手法を改善し、特にクラスタリングの目的を最適輸送問題として定式化している部分が新規の部分になります。提案手法は様々な実験でDeepClusterの性能を上回っています。

実際にラベル無しのデータセットから学習を開始し、得られたカテゴリと分類結果の一例を図aに示します。ラベル無しでもこのようなことができるようになります。より多様性の限られたデータセットなら、さらに優れた結果が出るかもしれません。

図a SeLaで学習して得られたクラスと分類例

 

続きを読むには

(7233文字画像8枚)

AI-SCHOLARに
登録いただく必要があります。

1分で無料で簡単登録する

または
tonouchi avatar
MLエンジニア。画像系の研究開発やML基盤構築をやってます。 Twitterアカウント: @tono2700

記事の内容等について改善箇所などございましたら、
お問い合わせフォームよりAI-SCHOLAR編集部の方にご連絡を頂けますと幸いです。
どうぞよろしくお願いします。

お問い合わせする