論文の概要: Hierarchical Neural Architecture Search for Single Image
Super-Resolution
- arxiv url: http://arxiv.org/abs/2003.04619v3
- Date: Tue, 16 Jun 2020 12:43:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 21:11:39.008752
- Title: Hierarchical Neural Architecture Search for Single Image
Super-Resolution
- Title(参考訳): 階層型ニューラルネットワークによる単一画像超解像探索
- Authors: Yong Guo, Yongsheng Luo, Zhenhao He, Jin Huang, Jian Chen
- Abstract要約: 深部ニューラルネットワークは画像超解像(SR)において有望な性能を示した
ほとんどのSRモデルは、計算ブロックのセルレベル設計とアップサンプリングブロックの位置のネットワークレベル設計の両方を含む階層アーキテクチャに従う。
本稿では,計算コストの異なる有望なアーキテクチャを自動設計する階層型ニューラルネットワーク探索法を提案する。
- 参考スコア(独自算出の注目度): 18.624661846174412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have exhibited promising performance in image
super-resolution (SR). Most SR models follow a hierarchical architecture that
contains both the cell-level design of computational blocks and the
network-level design of the positions of upsampling blocks. However, designing
SR models heavily relies on human expertise and is very labor-intensive. More
critically, these SR models often contain a huge number of parameters and may
not meet the requirements of computation resources in real-world applications.
To address the above issues, we propose a Hierarchical Neural Architecture
Search (HNAS) method to automatically design promising architectures with
different requirements of computation cost. To this end, we design a
hierarchical SR search space and propose a hierarchical controller for
architecture search. Such a hierarchical controller is able to simultaneously
find promising cell-level blocks and network-level positions of upsampling
layers. Moreover, to design compact architectures with promising performance,
we build a joint reward by considering both the performance and computation
cost to guide the search process. Extensive experiments on five benchmark
datasets demonstrate the superiority of our method over existing methods.
- Abstract(参考訳): ディープニューラルネットワークは画像超解像(SR)において有望な性能を示した。
ほとんどのSRモデルは、計算ブロックのセルレベル設計とアップサンプリングブロックの位置のネットワークレベル設計の両方を含む階層アーキテクチャに従う。
しかし、SRモデルの設計は人間の専門知識に大きく依存しており、非常に労働集約的である。
さらに重要なことに、これらのSRモデルは、しばしば膨大な数のパラメータを含み、現実世界のアプリケーションにおける計算リソースの要求を満たすことができない。
本稿では,計算コストの異なる有望なアーキテクチャを自動的に設計する階層型ニューラルネットワーク探索(hnas)手法を提案する。
そこで我々は階層型sr探索空間を設計し,アーキテクチャ探索のための階層型コントローラを提案する。
このような階層型コントローラは、有望なセルレベルブロックとアップサンプリング層のネットワークレベル位置を同時に見つけることができる。
さらに,性能を期待できるコンパクトアーキテクチャを設計するために,検索プロセスを導くための性能と計算コストを考慮し,共同報酬を構築する。
5つのベンチマークデータセットに関する広範な実験は、既存の方法よりも優れた方法を示している。
関連論文リスト
- EM-DARTS: Hierarchical Differentiable Architecture Search for Eye Movement Recognition [54.99121380536659]
眼球運動バイオメトリックスは、高い安全性の識別により注目されている。
深層学習(DL)モデルは近年,眼球運動認識に成功している。
DLアーキテクチャはまだ人間の事前知識によって決定されている。
眼球運動認識のためのDLアーキテクチャを自動設計する階層的微分可能なアーキテクチャ探索アルゴリズムEM-DARTSを提案する。
論文 参考訳(メタデータ) (2024-09-22T13:11:08Z) - Mechanistic Design and Scaling of Hybrid Architectures [114.3129802943915]
我々は、様々な計算プリミティブから構築された新しいハイブリッドアーキテクチャを特定し、テストする。
本研究では,大規模計算最適法則と新しい状態最適スケーリング法則解析を用いて,結果のアーキテクチャを実験的に検証する。
我々は,MAD合成法と計算-最適パープレキシティを相関させ,新しいアーキテクチャの正確な評価を可能にする。
論文 参考訳(メタデータ) (2024-03-26T16:33:12Z) - Hardware Aware Evolutionary Neural Architecture Search using
Representation Similarity Metric [12.52012450501367]
ハードウェア対応ニューラルアーキテクチャサーチ(ハードウェア対応ニューラルアーキテクチャサーチ、HW-NAS)は、特定のタスクとターゲットハードウェアのためにニューラルネットワークのアーキテクチャを自動的に設計する技術である。
HW-NASでは、重要な計算資源を必要とするため、候補アーキテクチャの性能を評価することが重要な課題である。
本稿では,HW-EvRSNASと呼ばれるハードウェア対応進化型NAS手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T11:58:40Z) - HKNAS: Classification of Hyperspectral Imagery Based on Hyper Kernel
Neural Architecture Search [104.45426861115972]
設計したハイパーカーネルを利用して,構造パラメータを直接生成することを提案する。
我々は1次元または3次元の畳み込みを伴う画素レベルの分類と画像レベルの分類を別々に行う3種類のネットワークを得る。
6つの公開データセットに関する一連の実験は、提案手法が最先端の結果を得ることを示した。
論文 参考訳(メタデータ) (2023-04-23T17:27:40Z) - Efficient Search of Multiple Neural Architectures with Different
Complexities via Importance Sampling [3.759936323189417]
本研究では、2つのメトリクスの重み付け和からなる目的関数を最適化するアーキテクチャの複雑性を考慮したワンショットNASに焦点を当てた。
提案手法は,CIAFR-10およびImageNetデータセット上の畳み込みニューラルネットワークのアーキテクチャ探索に適用される。
論文 参考訳(メタデータ) (2022-07-21T07:06:03Z) - SuperNet in Neural Architecture Search: A Taxonomic Survey [14.037182039950505]
このサーベイは、ウェイトシェアリングを使用して、すべてのアーキテクチャをサブモデルとして組み立てるニューラルネットワークを構築するスーパーネット最適化に焦点を当てている。
データ側最適化、低ランク相関緩和、多数のデプロイメントシナリオに対するトランスファー可能なNASなどです。
論文 参考訳(メタデータ) (2022-04-08T08:29:52Z) - Rethinking Architecture Selection in Differentiable NAS [74.61723678821049]
微分可能なニューラルアーキテクチャ探索は、その探索効率と簡易性において最も人気のあるNAS手法の1つである。
本稿では,各操作がスーパーネットに与える影響を直接測定する摂動に基づくアーキテクチャ選択を提案する。
提案手法により,DARTSの故障モードを大幅に緩和できることがわかった。
論文 参考訳(メタデータ) (2021-08-10T00:53:39Z) - Lightweight Image Super-Resolution with Hierarchical and Differentiable
Neural Architecture Search [38.83764580480486]
単一画像スーパーリゾリューション(SISR)タスクは、ディープニューラルネットワークで大きなパフォーマンスを達成しました。
本稿では, セルレベルとネットワークレベルの両方に対して, 軽量SISRモデル検索のための新しい微分可能なニューラルアーキテクチャ探索手法を提案する。
論文 参考訳(メタデータ) (2021-05-09T13:30:16Z) - Stage-Wise Neural Architecture Search [65.03109178056937]
ResNetやNASNetのような現代の畳み込みネットワークは、多くのコンピュータビジョンアプリケーションで最先端の結果を得た。
これらのネットワークは、同じ解像度で表現を操作するレイヤのセットであるステージで構成されている。
各ステージにおけるレイヤー数の増加はネットワークの予測能力を向上させることが示されている。
しかし、結果として得られるアーキテクチャは、浮動小数点演算、メモリ要求、推論時間の観点から計算的に高価になる。
論文 参考訳(メタデータ) (2020-04-23T14:16:39Z) - RC-DARTS: Resource Constrained Differentiable Architecture Search [162.7199952019152]
資源制約付き微分可能なアーキテクチャ探索法(RC-DARTS)を提案する。
RC-DARTS法は,モデルサイズが小さく,計算量も少ない,軽量なニューラルアーキテクチャを学習する。
論文 参考訳(メタデータ) (2019-12-30T05:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。