論文の概要: Lightweight Image Super-Resolution with Hierarchical and Differentiable
Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2105.03939v1
- Date: Sun, 9 May 2021 13:30:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 06:05:07.694575
- Title: Lightweight Image Super-Resolution with Hierarchical and Differentiable
Neural Architecture Search
- Title(参考訳): 階層的・微分可能なニューラルアーキテクチャ探索による軽量画像超解法
- Authors: Han Huang, Li Shen, Chaoyang He, Weisheng Dong, Haozhi Huang,
Guangming Shi
- Abstract要約: 単一画像スーパーリゾリューション(SISR)タスクは、ディープニューラルネットワークで大きなパフォーマンスを達成しました。
本稿では, セルレベルとネットワークレベルの両方に対して, 軽量SISRモデル検索のための新しい微分可能なニューラルアーキテクチャ探索手法を提案する。
- 参考スコア(独自算出の注目度): 38.83764580480486
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Single Image Super-Resolution (SISR) tasks have achieved significant
performance with deep neural networks. However, the large number of parameters
in CNN-based methods for SISR tasks require heavy computations. Although
several efficient SISR models have been recently proposed, most are handcrafted
and thus lack flexibility. In this work, we propose a novel differentiable
Neural Architecture Search (NAS) approach on both the cell-level and
network-level to search for lightweight SISR models. Specifically, the
cell-level search space is designed based on an information distillation
mechanism, focusing on the combinations of lightweight operations and aiming to
build a more lightweight and accurate SR structure. The network-level search
space is designed to consider the feature connections among the cells and aims
to find which information flow benefits the cell most to boost the performance.
Unlike the existing Reinforcement Learning (RL) or Evolutionary Algorithm (EA)
based NAS methods for SISR tasks, our search pipeline is fully differentiable,
and the lightweight SISR models can be efficiently searched on both the
cell-level and network-level jointly on a single GPU. Experiments show that our
methods can achieve state-of-the-art performance on the benchmark datasets in
terms of PSNR, SSIM, and model complexity with merely 68G Multi-Adds for
$\times 2$ and 18G Multi-Adds for $\times 4$ SR tasks. Code will be available
at \url{https://github.com/DawnHH/DLSR-PyTorch}.
- Abstract(参考訳): SISR(Single Image Super-Resolution)タスクは、ディープニューラルネットワークで大きなパフォーマンスを実現している。
しかしながら、cnnベースのsisrタスクの多くのパラメーターは重い計算を必要とする。
近年、いくつかの効率的なSISRモデルが提案されているが、そのほとんどは手作りであり、柔軟性に欠ける。
本稿では,セルレベルとネットワークレベルの両方において,軽量なsisrモデルを探すための新しい微分可能なニューラルネットワーク探索(nas)手法を提案する。
具体的には、セルレベルの探索空間は情報蒸留機構に基づいて設計されており、軽量操作の組み合わせに焦点を当て、より軽量で正確なsr構造の構築を目指している。
ネットワークレベルの検索空間は、セル間の機能接続を考慮し、パフォーマンス向上に最も役立つ情報フローを見つけることを目的としている。
SISRタスクのための既存のReinforcement Learning (RL) や Evolutionary Algorithm (EA) ベースのNASメソッドとは異なり、我々の探索パイプラインは完全に微分可能であり、軽量なSISRモデルは単一のGPU上でセルレベルとネットワークレベルの両方で効率的に探索することができる。
実験の結果,PSNR, SSIM, モデル複雑性の観点から,PSNR, SSIM, 68G Multi-Adds for $\times 2$および18G Multi-Adds for $\times 4$ SRタスクで, ベンチマークデータセットの最先端性能を達成できることが確認された。
コードは \url{https://github.com/DawnHH/DLSR-PyTorch} で入手できる。
関連論文リスト
- Multimodal Learned Sparse Retrieval with Probabilistic Expansion Control [66.78146440275093]
学習検索(LSR)は、クエリとドキュメントを疎語彙ベクトルにエンコードするニューラルネットワークのファミリーである。
テキスト画像検索に焦点をあて,マルチモーダル領域へのLSRの適用について検討する。
LexLIPやSTAIRのような現在のアプローチでは、大規模なデータセットで複雑なマルチステップのトレーニングが必要です。
提案手法は, 密度ベクトルを凍結密度モデルからスパース語彙ベクトルへ効率的に変換する。
論文 参考訳(メタデータ) (2024-02-27T14:21:56Z) - Lightweight Stepless Super-Resolution of Remote Sensing Images via
Saliency-Aware Dynamic Routing Strategy [15.587621728422414]
深層学習アルゴリズムは、リモートセンシング画像(RSI)超解像(SR)の性能を大幅に改善した
しかし、ネットワークの深さとパラメータの増大は、計算とストレージに大きな負担をもたらす。
本稿では、RSIの軽量でステップレスなSRを実現するために、SalDRN(Saliency-aware dynamic routing network)を提案する。
論文 参考訳(メタデータ) (2022-10-14T07:49:03Z) - A Dynamic Residual Self-Attention Network for Lightweight Single Image
Super-Resolution [17.094665593472214]
軽量単一像超解像(SISR)のための動的残像自己アテンションネットワーク(DRSAN)を提案する。
DRSANは動的残留注意(DRA)に基づく動的残留接続を持ち、入力統計に基づいてその構造を適応的に変化させる。
また,余剰自己アテンション(RSA)モジュールも提案し,付加パラメータを伴わずに3次元のアテンションマップを生成する。
論文 参考訳(メタデータ) (2021-12-08T06:41:21Z) - MPRNet: Multi-Path Residual Network for Lightweight Image Super
Resolution [2.3576437999036473]
軽量SRにおけるSOTA性能を向上させる軽量超解像ネットワークを提案する。
提案アーキテクチャには新たなアテンション機構であるTwo-Fold Attention Moduleが含まれており,モデルの表現能力を最大化することができる。
論文 参考訳(メタデータ) (2020-11-09T17:11:15Z) - Accurate and Lightweight Image Super-Resolution with Model-Guided Deep
Unfolding Network [63.69237156340457]
我々は、モデル誘導深部展開ネットワーク(MoG-DUN)と呼ばれるSISRに対する説明可能なアプローチを提示し、提唱する。
MoG-DUNは正確(エイリアスを少なくする)、計算効率(モデルパラメータを減らした)、多用途(多重劣化を処理できる)である。
RCAN, SRDNF, SRFBNを含む既存の最先端画像手法に対するMoG-DUN手法の優位性は、いくつかの一般的なデータセットと様々な劣化シナリオに関する広範な実験によって実証されている。
論文 参考訳(メタデータ) (2020-09-14T08:23:37Z) - Real Image Super Resolution Via Heterogeneous Model Ensemble using
GP-NAS [63.48801313087118]
本稿では,高密度スキップ接続を有するディープ残差ネットワークを用いた画像超解像法を提案する。
提案手法は、AIM 2020 Real Image Super-Resolution Challengeの3トラックで1位を獲得した。
論文 参考訳(メタデータ) (2020-09-02T22:33:23Z) - Lightweight image super-resolution with enhanced CNN [82.36883027158308]
強い表現力を持つ深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像(SISR)において印象的な性能を達成した
情報抽出・拡張ブロック(IEEB)、再構築ブロック(RB)、情報精製ブロック(IRB)の3つの連続したサブブロックを持つ軽量拡張SR CNN(LESRCNN)を提案する。
IEEBは階層的低分解能(LR)特徴を抽出し、SISRの深い層上の浅い層の記憶能力を高めるために、得られた特徴を段階的に集約する。
RBはグローバルに拡散することで低周波特徴を高周波特徴に変換する
論文 参考訳(メタデータ) (2020-07-08T18:03:40Z) - Deep Adaptive Inference Networks for Single Image Super-Resolution [72.7304455761067]
シングルイメージ超解像(SISR)は、ディープ畳み込みニューラルネットワーク(CNN)の展開により、近年大きく進歩している。
本稿では,深部SISR(AdaDSR)の適応型推論ネットワークを活用することで,この問題に対処する。
我々のAdaDSRは、SISRモデルをバックボーンとし、画像の特徴とリソース制約を入力として取り、ローカルネットワーク深さのマップを予測する軽量アダプタモジュールを備える。
論文 参考訳(メタデータ) (2020-04-08T10:08:20Z) - Hierarchical Neural Architecture Search for Single Image
Super-Resolution [18.624661846174412]
深部ニューラルネットワークは画像超解像(SR)において有望な性能を示した
ほとんどのSRモデルは、計算ブロックのセルレベル設計とアップサンプリングブロックの位置のネットワークレベル設計の両方を含む階層アーキテクチャに従う。
本稿では,計算コストの異なる有望なアーキテクチャを自動設計する階層型ニューラルネットワーク探索法を提案する。
論文 参考訳(メタデータ) (2020-03-10T10:19:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。