最新AI論文をキャッチアップ

継続学習を学ぶ。メタ学習による選択的可塑性の実現と破滅的忘却の防止策!

継続学習を学ぶ。メタ学習による選択的可塑性の実現と破滅的忘却の防止策!

continual learning

3つの要点

✔️ メタ学習による継続学習
✔️ 通常のネットワークの出力をNuromodulatory(NM)ネットワークにより制御
✔️ 600クラスの逐次学習で既存手法を超える性能を発揮

Learning to Continually Learn
written by Shawn Beaulieu, Lapo Frati, Thomas Miconi, Joel Lehman, Kenneth O. Stanley, Jeff Clune, Nick Cheney
(Submitted on 21 Feb 2020 (v1), last revised 4 Mar 2020 (this version, v2))
Comments: accepted by arXiv

Subjects: Machine Learning (cs.LG); Computer Vision and Pattern Recognition (cs.CV); Neural and Evolutionary Computing (cs.NE); Machine Learning (stat.ML)

はじめに

ニューラルネットワークには、新たなタスクを学習すると、過去に学習したタスクに対する性能が著しく低下してしまう破滅的忘却(catastrophic forgetting)という弱点があります。今回紹介する論文では、二つの並列ニューラルネットワークを用いたメタ学習により、この破滅的忘却を防ぐ継続学習において高い性能を発揮する手法が提案されました。

続きを読むには

(5077文字画像6枚)

AI-SCHOLARに
登録いただく必要があります。

1分で無料で簡単登録する

または
  • メルマガ登録(ver
  • ライター
  • エンジニア_大募集!!

記事の内容等について改善箇所などございましたら、
お問い合わせフォームよりAI-SCHOLAR編集部の方にご連絡を頂けますと幸いです。
どうぞよろしくお願いします。

お問い合わせする