論文の概要: Searching Efficient Model-guided Deep Network for Image Denoising
- arxiv url: http://arxiv.org/abs/2104.02525v1
- Date: Tue, 6 Apr 2021 14:03:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 13:53:38.158718
- Title: Searching Efficient Model-guided Deep Network for Image Denoising
- Title(参考訳): 画像デノイジングのための効率的なモデル誘導深層ネットワーク探索
- Authors: Qian Ning, Weisheng Dong, Xin Li, Jinjian Wu, Leida Li, Guangming Shi
- Abstract要約: モデルガイド設計とNAS(MoD-NAS)をつなぐ新しいアプローチを提案する。
MoD-NASは、再利用可能な幅探索戦略と密結合された探索ブロックを用いて、各層の操作を自動的に選択する。
いくつかの一般的なデータセットに対する実験結果から、我々のMoD-NASは現在の最先端手法よりもPSNR性能が向上していることが示された。
- 参考スコア(独自算出の注目度): 61.65776576769698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural architecture search (NAS) has recently reshaped our understanding on
various vision tasks. Similar to the success of NAS in high-level vision tasks,
it is possible to find a memory and computationally efficient solution via NAS
with highly competent denoising performance. However, the optimization gap
between the super-network and the sub-architectures has remained an open issue
in both low-level and high-level vision. In this paper, we present a novel
approach to filling in this gap by connecting model-guided design with NAS
(MoD-NAS) and demonstrate its application into image denoising. Specifically,
we propose to construct a new search space under model-guided framework and
develop more stable and efficient differential search strategies. MoD-NAS
employs a highly reusable width search strategy and a densely connected search
block to automatically select the operations of each layer as well as network
width and depth via gradient descent. During the search process, the proposed
MoG-NAS is capable of avoiding mode collapse due to the smoother search space
designed under the model-guided framework. Experimental results on several
popular datasets show that our MoD-NAS has achieved even better PSNR
performance than current state-of-the-art methods with fewer parameters, lower
number of flops, and less amount of testing time.
- Abstract(参考訳): neural architecture search(nas)は最近、さまざまなビジョンタスクに対する理解を再構築しました。
高レベルの視覚タスクにおけるNASの成功と同様に、NASを介してメモリと計算効率のよいソリューションを見つけることができる。
しかし、スーパーネットワークとサブアーキテクチャの最適化ギャップは、低レベルと高レベルの両方のビジョンにおいて未解決のままである。
本稿では,モデル誘導設計とNAS(MoD-NAS)を接続することで,このギャップを埋める新しい手法を提案する。
具体的には,モデル誘導フレームワークの下で新しい探索空間を構築し,より安定かつ効率的な微分探索戦略を開発することを提案する。
MoD-NASは、高度に再利用可能な幅探索戦略と密結合された探索ブロックを用いて、各層の動作と勾配勾配によるネットワーク幅と深さを自動的に選択する。
探索過程において,提案したMoG-NASは,モデル誘導フレームワークで設計したよりスムーズな探索空間により,モード崩壊を回避することができる。
いくつかの一般的なデータセットに対する実験結果から、我々のMoD-NASは、パラメータが少なく、フロップの数が少なく、テスト時間が少ない現在の最先端手法よりも、より優れたPSNR性能を実現していることが示された。
関連論文リスト
- Single Cell Training on Architecture Search for Image Denoising [16.72206392993489]
コンポーネントブロックレベルに着目して最適な探索問題を再構成する。
さらに,空間的およびチャネル的ミスマッチを扱うための,革新的な次元マッチングモジュールを統合する。
提案したDenoising Prior Neural Architecture Search (DPNAS) は、1つのGPUで1日で画像復元タスクの最適なアーキテクチャ検索を完了させることで実証した。
論文 参考訳(メタデータ) (2022-12-13T04:47:24Z) - You Only Search Once: On Lightweight Differentiable Architecture Search
for Resource-Constrained Embedded Platforms [10.11289927237036]
微分可能なニューラルアーキテクチャサーチ(NAS)は、競合するディープニューラルネットワーク(DNN)を自動設計する最も有力な代替品として進化してきた。
我々は、LightNASと呼ばれる軽量ハードウェア対応の差別化可能なNASフレームワークを導入し、ワンタイム検索によって必要なアーキテクチャを見つけ出そうとしている。
従来の最先端技術よりもLightNASの方が優れていることを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-30T02:23:23Z) - Lightweight Monocular Depth with a Novel Neural Architecture Search
Method [46.97673710849343]
本稿では,軽量な単分子深度推定モデルを生成するために,LiDNASと呼ばれる新しいニューラルネットワーク探索手法を提案する。
我々は,階層の多様性と探索空間の大きさのバランスをとるために,事前に定義されたバックボーンネットワーク上に探索空間を構築した。
LiDNAS最適化モデルは、NYU-Depth-v2、KITTI、ScanNet上でのコンパクトな深さ推定よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2021-08-25T08:06:28Z) - Trilevel Neural Architecture Search for Efficient Single Image
Super-Resolution [127.92235484598811]
本稿では,高効率単一画像超解像(SR)のための3レベルニューラルネットワーク探索法を提案する。
離散探索空間をモデル化するために、離散探索空間に新たな連続緩和を適用し、ネットワークパス、セル操作、カーネル幅の階層的混合を構築する。
階層型スーパーネット方式による最適化を行うため,効率的な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-17T12:19:49Z) - Memory-Efficient Hierarchical Neural Architecture Search for Image
Restoration [68.6505473346005]
メモリ効率の高い階層型NAS HiNAS(HiNAS)を提案する。
単一の GTX1080Ti GPU では、BSD 500 でネットワークを消すのに約 1 時間、DIV2K で超解像構造を探すのに 3.5 時間しかかかりません。
論文 参考訳(メタデータ) (2020-12-24T12:06:17Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z) - Neural Architecture Search as Sparse Supernet [78.09905626281046]
本稿では,単一パスと複数パスの探索から混合パスの自動探索へ,ニューラルネットワーク探索(NAS)の問題を拡大することを目的とする。
我々はNAS問題をスパース・スーパーネットとして,空間制約を混合した新しい連続アーキテクチャ表現を用いてモデル化する。
スパーススーパーネットは、コンパクトなノードセット上でスパース混合パスを自動的に達成する。
論文 参考訳(メタデータ) (2020-07-31T14:51:52Z) - Bonsai-Net: One-Shot Neural Architecture Search via Differentiable
Pruners [1.4180331276028662]
ワンショットニューラルアーキテクチャサーチ(NAS)は、最先端のモデルを発見する際の計算コストを最小限にすることを目的としている。
緩和された検索空間を探索するために,効率的なワンショットNAS手法であるBonsai-Netを提案する。
論文 参考訳(メタデータ) (2020-06-12T14:44:00Z) - Progressive Automatic Design of Search Space for One-Shot Neural
Architecture Search [15.017964136568061]
単発モデルの精度が高いモデルでは,スタンドアローンの訓練では必ずしも優れた性能が得られない。
PAD-NASという検索空間のプログレッシブ自動設計を提案する。
このようにして、PAD-NASは各レイヤの操作を自動的に設計し、検索空間の品質とモデルの多様性のトレードオフを達成できる。
論文 参考訳(メタデータ) (2020-05-15T14:21:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。