論文の概要: FNA++: Fast Network Adaptation via Parameter Remapping and Architecture
Search
- arxiv url: http://arxiv.org/abs/2006.12986v2
- Date: Wed, 16 Dec 2020 03:57:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 12:23:47.310454
- Title: FNA++: Fast Network Adaptation via Parameter Remapping and Architecture
Search
- Title(参考訳): FNA++:パラメータ再マッピングとアーキテクチャ検索による高速ネットワーク適応
- Authors: Jiemin Fang, Yuzhu Sun, Qian Zhang, Kangjian Peng, Yuan Li, Wenyu Liu,
Xinggang Wang
- Abstract要約: 本稿では,シードネットワークのアーキテクチャとパラメータの両方を適応できるFNA++法を提案する。
実験では、FNA++をMobileNetV2に適用し、セマンティックセグメンテーション、オブジェクト検出、人間のポーズ推定のための新しいネットワークを得る。
FNA++の総計算コストは、SOTAセグメンテーションやNASアプローチよりも大幅に少ない。
- 参考スコア(独自算出の注目度): 35.61441231491448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks achieve remarkable performance in many computer vision
tasks. Most state-of-the-art (SOTA) semantic segmentation and object detection
approaches reuse neural network architectures designed for image classification
as the backbone, commonly pre-trained on ImageNet. However, performance gains
can be achieved by designing network architectures specifically for detection
and segmentation, as shown by recent neural architecture search (NAS) research
for detection and segmentation. One major challenge though is that ImageNet
pre-training of the search space representation (a.k.a. super network) or the
searched networks incurs huge computational cost. In this paper, we propose a
Fast Network Adaptation (FNA++) method, which can adapt both the architecture
and parameters of a seed network (e.g. an ImageNet pre-trained network) to
become a network with different depths, widths, or kernel sizes via a parameter
remapping technique, making it possible to use NAS for segmentation and
detection tasks a lot more efficiently. In our experiments, we apply FNA++ on
MobileNetV2 to obtain new networks for semantic segmentation, object detection,
and human pose estimation that clearly outperform existing networks designed
both manually and by NAS. We also implement FNA++ on ResNets and NAS networks,
which demonstrates a great generalization ability. The total computation cost
of FNA++ is significantly less than SOTA segmentation and detection NAS
approaches: 1737x less than DPC, 6.8x less than Auto-DeepLab, and 8.0x less
than DetNAS. A series of ablation studies are performed to demonstrate the
effectiveness, and detailed analysis is provided for more insights into the
working mechanism. Codes are available at https://github.com/JaminFong/FNA.
- Abstract(参考訳): ディープニューラルネットワークは多くのコンピュータビジョンタスクにおいて顕著なパフォーマンスを達成する。
ほとんどの最先端(sota)セマンティックセグメンテーションとオブジェクト検出アプローチは、イメージ分類用に設計されたニューラルネットワークアーキテクチャをバックボーンとして再利用する。
しかし、近年のneural architecture search (nas) research for detection and segmentationで示されているように、検出とセグメンテーションに特化したネットワークアーキテクチャを設計することで、パフォーマンスの向上を実現することができる。
しかし、大きな課題の1つは、イメージネットが検索空間表現(スーパーネットワーク)や検索ネットワークの事前トレーニングを行っていることである。
本稿では,FNA++(Fast Network Adaptation)手法を提案する。FNA++(Fast Network Adaptation)は,シードネットワークのアーキテクチャとパラメータ(例えば,ImageNet事前学習ネットワーク)をパラメータリマッピング技術を用いて,異なる深さ,幅,カーネルサイズを持つネットワークに適応させることで,分割および検出タスクにNASをより効率的に使用できるようにする。
私たちの実験では、mobilenetv2にfna++を適用して意味セグメンテーション、オブジェクト検出、人間のポーズ推定のための新しいネットワークを得る。
また、ResNetsおよびNASネットワーク上でFNA++を実装し、優れた一般化能力を示す。
fna++の総計算コストは、somaのセグメンテーションと検出nasのアプローチよりもはるかに少なく、dpcより1737倍、auto-deeplabより6.8倍、detnasより8.0倍少ない。
有効性を示すために一連のアブレーション研究が行われ、作業メカニズムに関するさらなる知見を得るために詳細な分析が提供される。
コードはhttps://github.com/jaminfong/fnaで入手できる。
関連論文リスト
- GeNAS: Neural Architecture Search with Better Generalization [14.92869716323226]
最近のニューラルアーキテクチャサーチ(NAS)アプローチは、対象データに対して優れたネットワークを見つけるために、検証損失または精度に依存している。
そこで本研究では,より一般化した探索型アーキテクチャのためのニューラルアーキテクチャ探索手法について検討する。
論文 参考訳(メタデータ) (2023-05-15T12:44:54Z) - Evolutionary Neural Cascade Search across Supernetworks [68.8204255655161]
ENCAS - Evolutionary Neural Cascade Searchを紹介する。
ENCASは、複数の事前訓練されたスーパーネットを探索するために使用することができる。
我々は、一般的なコンピュータビジョンベンチマークでEMCASをテストする。
論文 参考訳(メタデータ) (2022-03-08T11:06:01Z) - Mixed-Block Neural Architecture Search for Medical Image Segmentation [0.0]
医用画像セグメンテーションネットワークのための新しいNAS検索空間を提案する。
U-Netでよく知られる一般化エンコーダデコーダ構造の強みと、画像分類タスクにおいて強力な性能を示すネットワークブロックを組み合わせる。
提案手法により発見されたネットワークは,手作りセグメンテーションネットワークよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-23T10:32:35Z) - HyperSegNAS: Bridging One-Shot Neural Architecture Search with 3D
Medical Image Segmentation using HyperNet [51.60655410423093]
医用画像セグメンテーションのためのワンショットニューラルアーキテクチャサーチ(NAS)を実現するためにHyperSegNASを導入する。
従来のSOTA(State-of-the-art)セグメンテーションネットワークと比較して,HyperSegNASの方がパフォーマンスが高く,直感的なアーキテクチャが得られることを示す。
本手法は,MSD (Messical Decathlon) 課題の公開データセットを用いて評価し,SOTAの性能評価を行う。
論文 参考訳(メタデータ) (2021-12-20T16:21:09Z) - NAS-FCOS: Efficient Search for Object Detection Architectures [113.47766862146389]
簡易なアンカーフリー物体検出器の特徴ピラミッドネットワーク (FPN) と予測ヘッドを探索し, より効率的な物体検出手法を提案する。
慎重に設計された検索空間、検索アルゴリズム、ネットワーク品質を評価するための戦略により、8つのV100 GPUを使用して、4日以内に最高のパフォーマンスの検知アーキテクチャを見つけることができる。
論文 参考訳(メタデータ) (2021-10-24T12:20:04Z) - Learning Versatile Neural Architectures by Propagating Network Codes [74.2450894473073]
アーキテクチャの性能を複数のデータセットやタスクで予測できる新しい「神経予測器」を提案する。
ncpはネットワークコードから学習するが、オリジナルデータではないため、データセット間で効率的にアーキテクチャを更新することができる。
論文 参考訳(メタデータ) (2021-03-24T15:20:38Z) - Hierarchical Neural Architecture Search for Deep Stereo Matching [131.94481111956853]
本稿では, ディープステレオマッチングのための最初のエンドツーエンド階層型NASフレームワークを提案する。
我々のフレームワークは、タスク固有の人間の知識をニューラルアーキテクチャ検索フレームワークに組み込んでいる。
KITTI stereo 2012、2015、Middleburyベンチマークで1位、SceneFlowデータセットで1位にランクインしている。
論文 参考訳(メタデータ) (2020-10-26T11:57:37Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - DRU-net: An Efficient Deep Convolutional Neural Network for Medical
Image Segmentation [2.3574651879602215]
残留ネットワーク(ResNet)と密結合ネットワーク(DenseNet)は、ディープ畳み込みニューラルネットワーク(DCNN)のトレーニング効率と性能を大幅に改善した。
両ネットワークの利点を考慮した効率的なネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-28T12:16:24Z) - Fast Neural Network Adaptation via Parameter Remapping and Architecture
Search [35.61441231491448]
ディープニューラルネットワークは多くのコンピュータビジョンタスクにおいて顕著なパフォーマンスを達成する。
ほとんどの最新技術(SOTA)セマンティックセグメンテーションとオブジェクト検出アプローチは、バックボーンとしてイメージ分類用に設計されたニューラルネットワークアーキテクチャを再利用する。
しかし、大きな課題の1つは、画像Netによる検索空間表現の事前トレーニングが膨大な計算コストを発生させることである。
本稿では、シードネットワークのアーキテクチャとパラメータの両方を適応できる高速ニューラルネットワーク適応(FNA)手法を提案する。
論文 参考訳(メタデータ) (2020-01-08T13:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。