教え方を学ぶことはできるか?
3つの要点
✔️ Learning to Teach(教え方を学ぶ)により学習を高速化
✔️ メタ学習によりネットワークが高速に学習できる合成データを生成
✔️ ニューラルネットワークの学習を9倍高速化
Hierarchically Decoupled Imitation for Morphological Transfer
written by Donald J. Hejna III, Pieter Abbeel, Lerrel Pinto
(Submitted on 3 Mar 2020 (v1), last revised 31 Aug 2020 (this version, v2))
Comments: Accepted at ICML2020
Subjects: Machine Learning (cs.LG); Artificial Intelligence (cs.AI); Robotics (cs.RO); Machine Learning (stat.ML)
はじめに
「教え方を学ぶことはできるか」
本記事で紹介する論文は、この挑戦的な問いに取り組んだ研究です。この問題は、一般的なメタ学習とは似ているようで異なるものです。既存のメタ学習の多くは、「Learning to Learn」と表現されるように、「学び方を学ぶ」ことに焦点が当てられています。
つまり、「与えられたデータをいかにうまく学習できるか」が最大の問題です。
勉強で例えるならば、
・教科書が学生に与えられた時、学生はそこからどれだけ多くの知識を得ることができるか?
・課題が学生に与えられた時、その課題をどれだけうまく解くことができるか?
といったことが目標でした。
つまり、「学ぶ側」をより洗練させることが重視されていました。しかしながら、重要なのは果たして「学ぶ側」だけでしょうか?学生が優れてさえいれば、その学生に与えられる教科書や課題は優れていなくても良いのでしょうか?直感的に考えれば、そうだとは言えないでしょう。もちろん、優れた学生ならば、どれだけ分かりづらい教科書でもうまく知識を得られるでしょう。しかしやはり、分かりやすい教科書を与えられたほうが、学生は効率的に学習することができます。
本記事で紹介するGenerative Teaching Networks(GTN)は、この例えにおける「分かりやすい教科書」を作ることができる、まさしく「教え方を学ぶ」手法となります。
事前準備
GTNの目標は、効率的に学習を行うことのできる合成データを生成することです。この手法の応用方法として、論文ではNAS(Network Architecture Search)の高速化が取り上げられています。NASは、ニューラルネットワークの構造自体をも学習し、タスクを解決するための最適なネットワークを構築する技術です。このとき、生成されたネットワークアーキテクチャの性能評価のため、実際にデータを学習させるか、もしくはアーキテクチャの性能を予測するためのモデルを用意するなどの処理が必要となります。当然ながら、このようなアーキテクチャの性能推定には、非常に大きな学習コストがかかってしまいます。GTNは、少ないデータを学習するだけでも、多くのデータを学習した場合と同等の性能を発揮できるような合成データを生成します。これを利用することで、NASにおける性能推定に必要な学習量を削減することができるのです。論文の実験ではニューラルネットワークの学習を9倍に高速化することが示されました。
続きを読むには
(4605文字画像9枚)AI-SCHOLARに
登録いただく必要があります。
この記事に関するカテゴリー