最新AI論文をキャッチアップ

EfficientNetを凌駕するNAS! モデルアーキテクチャの探索空間をProgressiveに狭める新手法「Design Network Space Design」

EfficientNetを凌駕するNAS! モデルアーキテクチャの探索空間をProgressiveに狭める新手法「Design Network Space Design」

画像認識

3つの要点
✔️ 従来のNASの手法を改善させ、モデルアーキテクチャの探索空間をz徐々に狭める「Design Network Space Design」という手法を開発 
✔️ 「Design Network Space Design」から得られたモデル, RegNetはシンプルな正則化手法の条件ではEfficientNetと同等の性能かつ推論時間の高速化に成功(最大5倍) 
✔️ Depthが60層程度で飽和すること、Inverted BottleneckやDepthwise Convolutionが性能を悪化させていることを突き止めた

Designing Network Design Spaces
written by Ilija RadosavovicRaj Prateek Kosaraju, Ross Girshick, Kaiming He, Piotr Dolla ́r
(Submitted on 30 Mar 2020) 
Comments: Accepted at CVPR 2020 
Subjects: Computer Vision and Pattern Recognition(cs.CV); Machine Learning(cs.LG)
Code

はじめに

画像認識の性能向上 

 近年、画像認識は急速に開発が進みました。その筆頭となるモデルとして、

  • ReLUとDropoutによりConv層の有効性を示したAlexNet(2012)
  • 3x3のConv層のみで使用し、深さを増やす(16層-22層)ことで性能を向上させたVGG(2015)
  • 残差接続により勾配消失問題を原理的に解決したResNet(2016) 

などが有名です。

 これらの研究により、精度が大幅に向上しました。それだけでなく、畳み込み層、入力の画像サイズ、深さ、残差接続(Residual Connection)、注意機構(Attention)等の要素がモデル性能の向上に有効であることがわかりました。

 しかし、これらのモデル開発には大きな弱点があります。それは、モデルアーキテクチャの探索空間が複雑さを増すにつれて、探索空間内で最適化をすることが困難になることです。この流れを受け、強化学習を用いることでチューニングを自動化し、開発者が設定した探索空間から最適なモデルを1つ自動的に見つけるNeural Architecture Search(NAS)が提案されました。このNASを用いて、タスクに依存しないメタアーキテクチャを提案したSpineNet(不気味さすら感じる!AIが発見した検出精度抜群のbackboneモデル「SpineNet」)や、モデルを深さ、幅、解像度の3つの観点からモデルをスケーリングさせることで2019年度の画像分類タスクにおいてSOTAとなったEfficientNetなどが開発されました。

 ただ、手法として優れているNASにも欠点が存在します。それは、NASの結果として得られるのは1つのモデルであり、学習を行ったハードウェアに依存していることです。また、モデルアーキテクチャをデザインする上での原理が理解しづらいことも欠点として挙げられています。 

続きを読むには

(3658文字画像6枚)

AI-SCHOLARに
登録いただく必要があります。

1分で無料で簡単登録する

または
  • メルマガ登録(ver
  • ライター
  • エンジニア_大募集!!
吉田 慎太郎 avatar
大学院では材料に対するAIの研究を行い、インターンでは画像認識の実装や最新研究の動向調査を行う.2020年9月に大学院を卒業後,画像認識を扱う株式会社 微分を設立.是非お気軽にご質問やメッセージください。個人ブログ : https://www.shintaro47.com 会社 : http://viven.co.jp

記事の内容等について改善箇所などございましたら、
お問い合わせフォームよりAI-SCHOLAR編集部の方にご連絡を頂けますと幸いです。
どうぞよろしくお願いします。

お問い合わせする