最新AI論文をキャッチアップ

密集と任意方向に強い物体検出手法登場!

密集と任意方向に強い物体検出手法登場!

Object Detection

3つの要点
✔️ 指向性に強い物体検出手法DRNを提案
✔️ 指向性と密集した物体検出のデータセットSKU110K-Rを提案

✔️ 指向性と密集した物体検出において精度向上

Dynamic Refinement Network for Oriented and Densely Packed Object Detection
written by Xingjia PanYuqiang RenKekai ShengWeiming DongHaolei YuanXiaowei GuoChongyang MaChangsheng Xu
(Submitted on 20 May 2020 (v1), last revised 10 Jun 2020 (this version, v2))

Comments: Published by CVPR 2020 oral
Subjects: Computer Vision and Pattern Recognition (cs.CV)

Code

はじめに

物体検出はDeep learningを用いて、いくつものベンチマークにおいて驚きのスコアを出してきています。しかし、物体検出はある特定の問題を今も抱えています。それは、物体の任意方向の認識密集状態での検出が難しいという課題です。どうしてもほとんどの検出器は、学習データでモデルを学習し、パラメータを最適化し、その後は固定で使用される事がほとんどでした。そのため、テスト時の特定のデータにおいて柔軟性にかける可能性があります。

最新の検出モデルはRCNN系列のフレームワークに基づいています。これらの手法ではまず多数の水平方向のバウンディングボックスをRoIとして生成し、そのRoIにおける分類と回帰を行っています。しかし、特定の物体ではこのような水平方向のRoIの使用はターゲットのズレを発生させる問題があります。実際航空画像のターゲットは通常は任意の方向性があり、密集しているため、多くのアーチファクトが発生するという問題があります。そこで他の手法では、任意方向のターゲットを処理するためにアンカーを利用する方法があります。しかしこの手法では角度やスケールやアスペクト比と言った様々なアンカーを取得する必要があるため、計算が複雑化するという問題があります。そしてRoI Trans(軸合わせされたRoIを回転可能なRoIに変換することで、RoIと指向性ターゲットの間の位置ずれの問題を解決)を使用し、RoI自体を回転させ、回転不変な特徴を学習することでRoIに指向性を持たせる研究もあります。しかし、これら明らかな歪さがあります。なぜなら、学習データという世界から取得した特定のデータから汎用性を学ぶ事が本来の学習の意義です。にもかかわらず、学習した汎用モデルをターゲットの方向性という特定の処理だけを追加で加えるという関係性が歪化しています。そこでここ最近では、動的フィルタを使用し、様々なサンプルに対して変化を可能とした手法が提案されています。

著者たちはこの手法を改良し、CenterNet(AI-SCHOLAR内でも紹介されています。ターゲットをbounding boxではなくポイントとして扱う新手法CenterNet)をベースに、角度予測ヘッドをベースラインとして加え、本論文のネットワークであるDRN(Dynamic Refinement Network)を提案しています!このDRNは、特徴選択モジュール(FSM)と動的絞り込みヘッド(DRH)の2つの新しい部分から構成されています。

貢献

・ターゲットの形状と向きに基づいて、ニューロンの受容野を適応的に調整するモジュールを提案しています。 このFSMモジュールは、受容野とターゲットの不協和音を緩和するのに有効です。

・DRH(それぞれ分類タスクと回帰タスク用)のDRH-CとDRH-Rの2つを提案する。 これらのDRHは、各サンプルの一意性と特異性に基づいてモデル化し、物体ごとに予測を洗練させることができる。

・指向性バウンディングボックスの正確なアノテーションを行ったSKU110K-Rというリラベルされたデータセットを収集し、指向性と密集した物体検出の研究を容易にする。

・DOTA、HRSC2016、SKU110K、SKU110K-Rで指向性と密集した物体検出において一貫した精度向上を遂げています。

続きを読むには

(4619文字画像13枚)

AI-SCHOLARに
登録いただく必要があります。

1分で無料で簡単登録する

または

記事の内容等について改善箇所などございましたら、
お問い合わせフォームよりAI-SCHOLAR編集部の方にご連絡を頂けますと幸いです。
どうぞよろしくお願いします。

お問い合わせする