論文の概要: EAutoDet: Efficient Architecture Search for Object Detection
- arxiv url: http://arxiv.org/abs/2203.10747v1
- Date: Mon, 21 Mar 2022 05:56:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 17:31:37.148733
- Title: EAutoDet: Efficient Architecture Search for Object Detection
- Title(参考訳): EAutoDet: オブジェクト検出のための効率的なアーキテクチャ検索
- Authors: Xiaoxing Wang, Jiale Lin, Junchi Yan, Juanping Zhao, Xiaokang Yang
- Abstract要約: EAutoDetフレームワークは、1.4GPU日でオブジェクト検出のための実用的なバックボーンとFPNアーキテクチャを検出できる。
本稿では,一方のエッジ上での候補演算の重みを共有し,それらを一つの畳み込みに集約することでカーネル再利用手法を提案する。
特に、発見されたアーキテクチャは最先端のオブジェクト検出NAS法を超越し、120 FPSで40.1 mAP、49.2 mAP、41.3 FPSをCOCOテストデブセットで達成している。
- 参考スコア(独自算出の注目度): 110.99532343155073
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Training CNN for detection is time-consuming due to the large dataset and
complex network modules, making it hard to search architectures on detection
datasets directly, which usually requires vast search costs (usually tens and
even hundreds of GPU-days). In contrast, this paper introduces an efficient
framework, named EAutoDet, that can discover practical backbone and FPN
architectures for object detection in 1.4 GPU-days. Specifically, we construct
a supernet for both backbone and FPN modules and adopt the differentiable
method. To reduce the GPU memory requirement and computational cost, we propose
a kernel reusing technique by sharing the weights of candidate operations on
one edge and consolidating them into one convolution. A dynamic channel
refinement strategy is also introduced to search channel numbers. Extensive
experiments show significant efficacy and efficiency of our method. In
particular, the discovered architectures surpass state-of-the-art object
detection NAS methods and achieve 40.1 mAP with 120 FPS and 49.2 mAP with 41.3
FPS on COCO test-dev set. We also transfer the discovered architectures to
rotation detection task, which achieve 77.05 mAP$_{\text{50}}$ on DOTA-v1.0
test set with 21.1M parameters.
- Abstract(参考訳): 大規模なデータセットと複雑なネットワークモジュールのため、検出のためのCNNのトレーニングには時間がかかるため、検出データセットのアーキテクチャを直接検索するのは困難である。
対照的に、本研究では、1.4GPU日でオブジェクト検出のための実用的なバックボーンとFPNアーキテクチャを発見できるEAutoDetという効率的なフレームワークを提案する。
具体的には、バックボーンとFPNモジュールの両方にスーパーネットを構築し、微分可能な方法を採用する。
本稿では,GPUメモリの要件と計算コストを削減するため,一方のエッジ上での候補演算の重みを共有し,それらを一つの畳み込みに集約することでカーネル再利用手法を提案する。
検索チャネル番号には動的チャネル改善戦略も導入されている。
広範な実験により,本手法の有効性と有効性が示された。
特に、発見されたアーキテクチャは最先端のオブジェクト検出NAS法を超越し、120 FPSの40.1 mAP、49.2 mAP、41.3 FPSのCOCOテストデブセットを達成した。
また,21.1mのパラメータを持つdota-v1.0テストセット上で77.05 map$_{\text{50}}$を実現するローテーション検出タスクに,検出されたアーキテクチャを転送した。
関連論文リスト
- DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - Tech Report: One-stage Lightweight Object Detectors [0.38073142980733]
この研究は、mAPと遅延の点でよく機能するワンステージ軽量検出器を設計するためのものである。
GPUとCPUを対象とするベースラインモデルでは、ベースラインモデルのバックボーンネットワークにおけるメイン操作の代わりに、さまざまな操作が適用される。
論文 参考訳(メタデータ) (2022-10-31T09:02:37Z) - Revisiting Efficient Object Detection Backbones from Zero-Shot Neural
Architecture Search [34.88658308647129]
オブジェクト検出モデルでは、検出バックボーンは全体の推論コストの半分以上を消費する。
この問題に対処する新しいゼロショットNAS法を提案する。
提案手法はZenDetと呼ばれ,ネットワークパラメータを訓練することなく,効率的な検出バックボーンを自動設計する。
論文 参考訳(メタデータ) (2021-11-26T07:18:52Z) - NAS-FCOS: Efficient Search for Object Detection Architectures [113.47766862146389]
簡易なアンカーフリー物体検出器の特徴ピラミッドネットワーク (FPN) と予測ヘッドを探索し, より効率的な物体検出手法を提案する。
慎重に設計された検索空間、検索アルゴリズム、ネットワーク品質を評価するための戦略により、8つのV100 GPUを使用して、4日以内に最高のパフォーマンスの検知アーキテクチャを見つけることができる。
論文 参考訳(メタデータ) (2021-10-24T12:20:04Z) - OPANAS: One-Shot Path Aggregation Network Architecture Search for Object
Detection [82.04372532783931]
近年、ニューラルアーキテクチャサーチ (NAS) が特徴ピラミッドネットワーク (FPN) の設計に活用されている。
本稿では,探索効率と検出精度を大幅に向上させる,ワンショットパス集約ネットワークアーキテクチャ探索(OPANAS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T01:48:53Z) - Towards Improving the Consistency, Efficiency, and Flexibility of
Differentiable Neural Architecture Search [84.4140192638394]
最も微分可能なニューラルアーキテクチャ探索法は、探索用のスーパーネットを構築し、そのサブグラフとしてターゲットネットを導出する。
本稿では,エンジンセルとトランジットセルからなるEnTranNASを紹介する。
また,検索処理の高速化を図るため,メモリや計算コストの削減も図っている。
論文 参考訳(メタデータ) (2021-01-27T12:16:47Z) - Representation Sharing for Fast Object Detector Search and Beyond [38.18583590914755]
本研究では,1段検出器のサブネットワークにおける受容場と畳み込み型の最適構成について,Fast And Diverse (FAD) を提案する。
FADは、様々なバックボーンを持つ2種類の1段検出器において顕著な改善を実現している。
論文 参考訳(メタデータ) (2020-07-23T15:39:44Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。