論文の概要: Trilevel Neural Architecture Search for Efficient Single Image
Super-Resolution
- arxiv url: http://arxiv.org/abs/2101.06658v1
- Date: Sun, 17 Jan 2021 12:19:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 00:23:03.936002
- Title: Trilevel Neural Architecture Search for Efficient Single Image
Super-Resolution
- Title(参考訳): 効率的な単一画像超解像のための三レベルニューラルネットワーク探索
- Authors: Yan Wu, Zhiwu Huang, Suryansh Kumar, Rhea Sanjay Sukthanker, Radu
Timofte, Luc Van Gool
- Abstract要約: 本稿では,高効率単一画像超解像(SR)のための3レベルニューラルネットワーク探索法を提案する。
離散探索空間をモデル化するために、離散探索空間に新たな連続緩和を適用し、ネットワークパス、セル操作、カーネル幅の階層的混合を構築する。
階層型スーパーネット方式による最適化を行うため,効率的な探索アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 127.92235484598811
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a trilevel neural architecture search (NAS) method for
efficient single image super-resolution (SR). For that, we first define the
discrete search space at three-level, i.e., at network-level, cell-level, and
kernel-level (convolution-kernel). For modeling the discrete search space, we
apply a new continuous relaxation on the discrete search spaces to build a
hierarchical mixture of network-path, cell-operations, and kernel-width. Later
an efficient search algorithm is proposed to perform optimization in a
hierarchical supernet manner that provides a globally optimized and compressed
network via joint convolution kernel width pruning, cell structure search, and
network path optimization. Unlike current NAS methods, we exploit a sorted
sparsestmax activation to let the three-level neural structures contribute
sparsely. Consequently, our NAS optimization progressively converges to those
neural structures with dominant contributions to the supernet. Additionally,
our proposed optimization construction enables a simultaneous search and
training in a single phase, which dramatically reduces search and train time
compared to the traditional NAS algorithms. Experiments on the standard
benchmark datasets demonstrate that our NAS algorithm provides SR models that
are significantly lighter in terms of the number of parameters and FLOPS with
PSNR value comparable to the current state-of-the-art.
- Abstract(参考訳): 本稿では,効率的な単一画像超解像(SR)のための3レベルニューラルネットワーク探索法を提案する。
そこで,我々はまず,ネットワークレベル,セルレベル,カーネルレベル(畳み込みカーネル)の3レベルにおいて離散探索空間を定義する。
離散探索空間をモデル化するために、離散探索空間に新たな連続緩和を適用し、ネットワークパス、セル操作、カーネル幅の階層的な混合を構築する。
後に,統合畳み込みカーネル幅プルーニング,セル構造探索,ネットワークパス最適化により,グローバルに最適化された圧縮ネットワークを提供する階層型スーパーネット方式による効率的な探索アルゴリズムを提案する。
現在のnas法とは異なり、sparsestmaxアクティベーションによって3段階の神経構造がスパースに寄与する。
したがって、NAS最適化は、これらの神経構造に徐々に収束し、スーパーネットに支配的な貢献をする。
さらに,提案手法では,単一のフェーズで同時探索とトレーニングが可能であり,従来のnasアルゴリズムに比べて検索とトレーニングの時間を劇的に短縮する。
標準ベンチマークデータセットの実験では、我々のNASアルゴリズムはパラメータの数に関して大幅に軽量なSRモデルを提供し、PSNR値のFLOPSは現在の最先端に匹敵することを示している。
関連論文リスト
- TopoNAS: Boosting Search Efficiency of Gradient-based NAS via Topological Simplification [11.08910129925713]
TopoNASは勾配に基づくワンショットNASのモデルに依存しないアプローチである。
探索可能な経路のトポロジ的単純化により検索時間とメモリ使用量を大幅に削減する。
論文 参考訳(メタデータ) (2024-08-02T15:01:29Z) - HKNAS: Classification of Hyperspectral Imagery Based on Hyper Kernel
Neural Architecture Search [104.45426861115972]
設計したハイパーカーネルを利用して,構造パラメータを直接生成することを提案する。
我々は1次元または3次元の畳み込みを伴う画素レベルの分類と画像レベルの分類を別々に行う3種類のネットワークを得る。
6つの公開データセットに関する一連の実験は、提案手法が最先端の結果を得ることを示した。
論文 参考訳(メタデータ) (2023-04-23T17:27:40Z) - Tiered Pruning for Efficient Differentialble Inference-Aware Neural
Architecture Search [0.0]
我々は、メモリと計算の複雑さで内部の隠された次元を探索できるDNASのための双方向構築ブロックを紹介した。
第2に,探索中にスーパーネットの層内でブロックを刈り取るアルゴリズムを提案する。
第3に,探索中に不要な層を刈り取る新しい手法について述べる。
論文 参考訳(メタデータ) (2022-09-23T18:03:54Z) - OPANAS: One-Shot Path Aggregation Network Architecture Search for Object
Detection [82.04372532783931]
近年、ニューラルアーキテクチャサーチ (NAS) が特徴ピラミッドネットワーク (FPN) の設計に活用されている。
本稿では,探索効率と検出精度を大幅に向上させる,ワンショットパス集約ネットワークアーキテクチャ探索(OPANAS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T01:48:53Z) - Neural Architecture Search as Sparse Supernet [78.09905626281046]
本稿では,単一パスと複数パスの探索から混合パスの自動探索へ,ニューラルネットワーク探索(NAS)の問題を拡大することを目的とする。
我々はNAS問題をスパース・スーパーネットとして,空間制約を混合した新しい連続アーキテクチャ表現を用いてモデル化する。
スパーススーパーネットは、コンパクトなノードセット上でスパース混合パスを自動的に達成する。
論文 参考訳(メタデータ) (2020-07-31T14:51:52Z) - Hyperparameter Optimization in Neural Networks via Structured Sparse
Recovery [54.60327265077322]
スパースリカバリ法のレンズを用いて,ニューラルネットワークの自動設計における2つの重要な問題について検討する。
本論文の前半では,HPOと構造的スパースリカバリの新たな接続を確立する。
本論文の第2部では,NASと構造的スパース回復の関連性を確立する。
論文 参考訳(メタデータ) (2020-07-07T00:57:09Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。