論文の概要: Revisiting Efficient Object Detection Backbones from Zero-Shot Neural
Architecture Search
- arxiv url: http://arxiv.org/abs/2111.13336v1
- Date: Fri, 26 Nov 2021 07:18:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 23:39:57.446878
- Title: Revisiting Efficient Object Detection Backbones from Zero-Shot Neural
Architecture Search
- Title(参考訳): ゼロショットニューラルネットワークによる効率的な物体検出バックボーンの再検討
- Authors: Zhenhong Sun, Ming Lin, Xiuyu Sun, Zhiyu Tan and Rong Jin
- Abstract要約: オブジェクト検出モデルでは、検出バックボーンは全体の推論コストの半分以上を消費する。
この問題に対処する新しいゼロショットNAS法を提案する。
提案手法はZenDetと呼ばれ,ネットワークパラメータを訓練することなく,効率的な検出バックボーンを自動設計する。
- 参考スコア(独自算出の注目度): 34.88658308647129
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In object detection models, the detection backbone consumes more than half of
the overall inference cost. Recent researches attempt to reduce this cost by
optimizing the backbone architecture with the help of Neural Architecture
Search (NAS). However, existing NAS methods for object detection require
hundreds to thousands of GPU hours of searching, making them impractical in
fast-paced research and development. In this work, we propose a novel zero-shot
NAS method to address this issue. The proposed method, named ZenDet,
automatically designs efficient detection backbones without training network
parameters, reducing the architecture design cost to nearly zero yet delivering
the state-of-the-art (SOTA) performance. Under the hood, ZenDet maximizes the
differential entropy of detection backbones, leading to a better feature
extractor for object detection under the same computational budgets. After
merely one GPU day of fully automatic design, ZenDet innovates SOTA detection
backbones on multiple detection benchmark datasets with little human
intervention. Comparing to ResNet-50 backbone, ZenDet is +2.0% better in mAP
when using the same amount of FLOPs/parameters and is 1.54 times faster on
NVIDIA V100 at the same mAP. Code and pre-trained models will be released
later.
- Abstract(参考訳): オブジェクト検出モデルでは、検出バックボーンは全体の推論コストの半分以上を消費する。
最近の研究は、Neural Architecture Search (NAS)の助けを借りてバックボーンアーキテクチャを最適化することで、このコストを削減しようとしている。
しかし、オブジェクト検出のための既存のnasメソッドは、数百から数千時間のgpu検索を必要とするため、高速な研究と開発では実用的ではない。
本研究では,この問題に対処する新しいゼロショットNAS法を提案する。
提案手法はZendDetと呼ばれ,ネットワークパラメータを訓練せずに効率的な検出バックボーンを自動設計し,アーキテクチャ設計コストをほぼゼロに削減し,最先端(SOTA)性能を実現する。
内部では、zendetは検出バックボーンの差分エントロピーを最大化し、同じ計算予算でオブジェクト検出のためのより良い特徴抽出器となる。
完全な自動設計のgpuデーの後、zendetは複数の検出ベンチマークデータセットでsoma検出バックボーンを革新し、人間の介入は少ない。
ResNet-50のバックボーンと比較すると、ZendDetは同じFLOP/パラメータを使用する場合、mAPでは+2.0%、同じmAPではNVIDIA V100では1.54倍高速である。
コードと事前訓練されたモデルは後にリリースされる。
関連論文リスト
- A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - EAutoDet: Efficient Architecture Search for Object Detection [110.99532343155073]
EAutoDetフレームワークは、1.4GPU日でオブジェクト検出のための実用的なバックボーンとFPNアーキテクチャを検出できる。
本稿では,一方のエッジ上での候補演算の重みを共有し,それらを一つの畳み込みに集約することでカーネル再利用手法を提案する。
特に、発見されたアーキテクチャは最先端のオブジェクト検出NAS法を超越し、120 FPSで40.1 mAP、49.2 mAP、41.3 FPSをCOCOテストデブセットで達成している。
論文 参考訳(メタデータ) (2022-03-21T05:56:12Z) - NAS-FCOS: Efficient Search for Object Detection Architectures [113.47766862146389]
簡易なアンカーフリー物体検出器の特徴ピラミッドネットワーク (FPN) と予測ヘッドを探索し, より効率的な物体検出手法を提案する。
慎重に設計された検索空間、検索アルゴリズム、ネットワーク品質を評価するための戦略により、8つのV100 GPUを使用して、4日以内に最高のパフォーマンスの検知アーキテクチャを見つけることができる。
論文 参考訳(メタデータ) (2021-10-24T12:20:04Z) - EEEA-Net: An Early Exit Evolutionary Neural Architecture Search [6.569256728493014]
限られた計算資源を持つオンデバイスプロセッサに適した畳み込みニューラルネットワーク(CNN)アーキテクチャの探索。
The Early Exit Population Initialisation (EE-PI) for Evolutionary Algorithm (EA)。
CIFAR-10は2.46%、CIFAR-100は15.02%、ImageNetデータセットは23.8%である。
論文 参考訳(メタデータ) (2021-08-13T10:23:19Z) - Zen-NAS: A Zero-Shot NAS for High-Performance Deep Image Recognition [43.97052733871721]
ニューラルネットワーク探索(NAS)の重要なコンポーネントは、クエリされたアーキテクチャの精度を主張する精度予測器である。
精度予測器をZen-scoreという新しいモデル複雑度指数に置き換えることを提案する。
モデル精度を予測する代わりに、Zen-Scoreはパラメータをトレーニングすることなく、ネットワークのモデル複雑さを直接主張する。
論文 参考訳(メタデータ) (2021-02-01T18:53:40Z) - Fast Neural Network Adaptation via Parameter Remapping and Architecture
Search [35.61441231491448]
ディープニューラルネットワークは多くのコンピュータビジョンタスクにおいて顕著なパフォーマンスを達成する。
ほとんどの最新技術(SOTA)セマンティックセグメンテーションとオブジェクト検出アプローチは、バックボーンとしてイメージ分類用に設計されたニューラルネットワークアーキテクチャを再利用する。
しかし、大きな課題の1つは、画像Netによる検索空間表現の事前トレーニングが膨大な計算コストを発生させることである。
本稿では、シードネットワークのアーキテクチャとパラメータの両方を適応できる高速ニューラルネットワーク適応(FNA)手法を提案する。
論文 参考訳(メタデータ) (2020-01-08T13:45:15Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。