論文の概要: DCNAS: Densely Connected Neural Architecture Search for Semantic Image
Segmentation
- arxiv url: http://arxiv.org/abs/2003.11883v2
- Date: Sat, 27 Mar 2021 15:03:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 21:42:36.634905
- Title: DCNAS: Densely Connected Neural Architecture Search for Semantic Image
Segmentation
- Title(参考訳): dcnas: セマンティックイメージセグメンテーションのための密結合型ニューラルネットワーク探索
- Authors: Xiong Zhang, Hongmin Xu, Hong Mo, Jianchao Tan, Cheng Yang, Lei Wang,
Wenqi Ren
- Abstract要約: Densely Connected NAS (DCNAS) フレームワークを提案し、視覚情報のマルチスケール表現に対して最適なネットワーク構造を直接検索する。
具体的には,学習可能な重みを使ってセルを相互に接続することにより,多数の主流ネットワーク設計をカバーするために,密結合された検索空間を導入する。
我々は、DCNASアルゴリズムから得られたアーキテクチャが、公開セマンティックイメージセグメンテーションベンチマーク上で最先端のパフォーマンスを達成することを実証した。
- 参考スコア(独自算出の注目度): 44.46852065566759
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Architecture Search (NAS) has shown great potentials in automatically
designing scalable network architectures for dense image predictions. However,
existing NAS algorithms usually compromise on restricted search space and
search on proxy task to meet the achievable computational demands. To allow as
wide as possible network architectures and avoid the gap between target and
proxy dataset, we propose a Densely Connected NAS (DCNAS) framework, which
directly searches the optimal network structures for the multi-scale
representations of visual information, over a large-scale target dataset.
Specifically, by connecting cells with each other using learnable weights, we
introduce a densely connected search space to cover an abundance of mainstream
network designs. Moreover, by combining both path-level and channel-level
sampling strategies, we design a fusion module to reduce the memory consumption
of ample search space. We demonstrate that the architecture obtained from our
DCNAS algorithm achieves state-of-the-art performances on public semantic image
segmentation benchmarks, including 84.3% on Cityscapes, and 86.9% on PASCAL VOC
2012. We also retain leading performances when evaluating the architecture on
the more challenging ADE20K and Pascal Context dataset.
- Abstract(参考訳): ニューラルネットワーク探索(NAS)は、高密度画像予測のためにスケーラブルなネットワークアーキテクチャを自動設計する大きな可能性を示している。
しかし、既存のNASアルゴリズムは通常、制限された検索スペースとプロキシタスクを妥協して、達成可能な計算要求を満たす。
ネットワークアーキテクチャを可能な限り広くし,ターゲットとプロキシデータセットのギャップを回避するために,大規模ターゲットデータセット上で視覚情報のマルチスケール表現に最適なネットワーク構造を直接検索するDensely Connected NAS(DCNAS)フレームワークを提案する。
具体的には,学習可能な重みを使ってセルを相互に接続することにより,多数の主流ネットワーク設計をカバーする密結合型検索空間を導入する。
さらに,経路レベルとチャネルレベルの両方のサンプリング戦略を組み合わせることで,全検索空間のメモリ消費を削減するための融合モジュールを設計する。
dcnasアルゴリズムから得られたアーキテクチャは,都市景観の84.3%,パスカルvoc 2012の86.9%を含む,パブリックセマンティックイメージセグメンテーションベンチマークで最先端のパフォーマンスを達成している。
また、より困難なADE20KとPascal Contextデータセットでアーキテクチャを評価する際にも、主要なパフォーマンスを保持します。
関連論文リスト
- GeNAS: Neural Architecture Search with Better Generalization [14.92869716323226]
最近のニューラルアーキテクチャサーチ(NAS)アプローチは、対象データに対して優れたネットワークを見つけるために、検証損失または精度に依存している。
そこで本研究では,より一般化した探索型アーキテクチャのためのニューラルアーキテクチャ探索手法について検討する。
論文 参考訳(メタデータ) (2023-05-15T12:44:54Z) - A General-Purpose Transferable Predictor for Neural Architecture Search [22.883809911265445]
本稿では,探索空間を横断的に移動可能なニューラルネットワーク探索(NAS)のための汎用ニューラルネットワーク予測器を提案する。
NAS-Bench-101, 201, 301の実験結果から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-21T17:28:05Z) - NAS-based Recursive Stage Partial Network (RSPNet) for Light-Weight
Semantic Segmentation [16.019616787091202]
現在のNASベースのセマンティックセグメンテーション手法は、軽量設計よりも精度の向上に焦点を当てている。
軽量セマンティックセグメンテーションのためのNASベースのRSPNetモデルを設計するための2段階フレームワークを提案する。
提案したアーキテクチャは非常に効率的でシンプルで効果的であり、マクロ構造とマイクロ構造の両方の探索が5日間の計算で完了する。
論文 参考訳(メタデータ) (2022-10-03T03:25:29Z) - Towards Less Constrained Macro-Neural Architecture Search [2.685668802278155]
ニューラルアーキテクチャサーチ(NAS)ネットワークは、様々なタスクで最先端のパフォーマンスを達成する。
ほとんどのNAS手法は、探索を制約する人間定義の仮定に大きく依存している。
我々は,LCMNASが最小のGPU計算でゼロから最先端アーキテクチャを生成することを示す実験を行った。
論文 参考訳(メタデータ) (2022-03-10T17:53:03Z) - HyperSegNAS: Bridging One-Shot Neural Architecture Search with 3D
Medical Image Segmentation using HyperNet [51.60655410423093]
医用画像セグメンテーションのためのワンショットニューラルアーキテクチャサーチ(NAS)を実現するためにHyperSegNASを導入する。
従来のSOTA(State-of-the-art)セグメンテーションネットワークと比較して,HyperSegNASの方がパフォーマンスが高く,直感的なアーキテクチャが得られることを示す。
本手法は,MSD (Messical Decathlon) 課題の公開データセットを用いて評価し,SOTAの性能評価を行う。
論文 参考訳(メタデータ) (2021-12-20T16:21:09Z) - Searching Efficient Model-guided Deep Network for Image Denoising [61.65776576769698]
モデルガイド設計とNAS(MoD-NAS)をつなぐ新しいアプローチを提案する。
MoD-NASは、再利用可能な幅探索戦略と密結合された探索ブロックを用いて、各層の操作を自動的に選択する。
いくつかの一般的なデータセットに対する実験結果から、我々のMoD-NASは現在の最先端手法よりもPSNR性能が向上していることが示された。
論文 参考訳(メタデータ) (2021-04-06T14:03:01Z) - Hierarchical Neural Architecture Search for Deep Stereo Matching [131.94481111956853]
本稿では, ディープステレオマッチングのための最初のエンドツーエンド階層型NASフレームワークを提案する。
我々のフレームワークは、タスク固有の人間の知識をニューラルアーキテクチャ検索フレームワークに組み込んでいる。
KITTI stereo 2012、2015、Middleburyベンチマークで1位、SceneFlowデータセットで1位にランクインしている。
論文 参考訳(メタデータ) (2020-10-26T11:57:37Z) - AutoPose: Searching Multi-Scale Branch Aggregation for Pose Estimation [96.29533512606078]
本稿では,新しいニューラルアーキテクチャサーチ(NAS)フレームワークであるAutoPoseを紹介する。
高精度で高解像度な2次元ポーズ推定に向けて、クロススケール接続の複数の並列ブランチを自動的に検出することができる。
論文 参考訳(メタデータ) (2020-08-16T22:27:43Z) - Stage-Wise Neural Architecture Search [65.03109178056937]
ResNetやNASNetのような現代の畳み込みネットワークは、多くのコンピュータビジョンアプリケーションで最先端の結果を得た。
これらのネットワークは、同じ解像度で表現を操作するレイヤのセットであるステージで構成されている。
各ステージにおけるレイヤー数の増加はネットワークの予測能力を向上させることが示されている。
しかし、結果として得られるアーキテクチャは、浮動小数点演算、メモリ要求、推論時間の観点から計算的に高価になる。
論文 参考訳(メタデータ) (2020-04-23T14:16:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。