論文の概要: A Dynamic Residual Self-Attention Network for Lightweight Single Image
Super-Resolution
- arxiv url: http://arxiv.org/abs/2112.04488v1
- Date: Wed, 8 Dec 2021 06:41:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-09 13:23:53.361988
- Title: A Dynamic Residual Self-Attention Network for Lightweight Single Image
Super-Resolution
- Title(参考訳): 軽量単一画像超解像のための動的残差セルフアテンションネットワーク
- Authors: Karam Park, Jae Woong Soh, Nam Ik Cho
- Abstract要約: 軽量単一像超解像(SISR)のための動的残像自己アテンションネットワーク(DRSAN)を提案する。
DRSANは動的残留注意(DRA)に基づく動的残留接続を持ち、入力統計に基づいてその構造を適応的に変化させる。
また,余剰自己アテンション(RSA)モジュールも提案し,付加パラメータを伴わずに3次元のアテンションマップを生成する。
- 参考スコア(独自算出の注目度): 17.094665593472214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning methods have shown outstanding performance in many
applications, including single-image super-resolution (SISR). With residual
connection architecture, deeply stacked convolutional neural networks provide a
substantial performance boost for SISR, but their huge parameters and
computational loads are impractical for real-world applications. Thus,
designing lightweight models with acceptable performance is one of the major
tasks in current SISR research. The objective of lightweight network design is
to balance a computational load and reconstruction performance. Most of the
previous methods have manually designed complex and predefined fixed
structures, which generally required a large number of experiments and lacked
flexibility in the diversity of input image statistics. In this paper, we
propose a dynamic residual self-attention network (DRSAN) for lightweight SISR,
while focusing on the automated design of residual connections between building
blocks. The proposed DRSAN has dynamic residual connections based on dynamic
residual attention (DRA), which adaptively changes its structure according to
input statistics. Specifically, we propose a dynamic residual module that
explicitly models the DRA by finding the interrelation between residual paths
and input image statistics, as well as assigning proper weights to each
residual path. We also propose a residual self-attention (RSA) module to
further boost the performance, which produces 3-dimensional attention maps
without additional parameters by cooperating with residual structures. The
proposed dynamic scheme, exploiting the combination of DRA and RSA, shows an
efficient trade-off between computational complexity and network performance.
Experimental results show that the DRSAN performs better than or comparable to
existing state-of-the-art lightweight models for SISR.
- Abstract(参考訳): ディープラーニング法は多くのアプリケーションで優れた性能を示しており、例えばシングルイメージ超解像(SISR)がある。
残差接続アーキテクチャでは、深く積み重ねられた畳み込みニューラルネットワークはSISRに大幅な性能向上をもたらすが、その膨大なパラメータと計算負荷は現実世界のアプリケーションでは実用的ではない。
したがって、許容性能を持つ軽量モデルの設計は、現在のSISR研究における主要な課題の1つである。
軽量ネットワーク設計の目的は、計算負荷と再構成性能のバランスをとることである。
従来の手法の多くは手動で複雑で事前定義された固定構造を設計しており、多くの実験が必要であり、入力画像統計の多様性に柔軟性が欠けていた。
本稿では,ビルディングブロック間の残差接続の自動設計に着目し,軽量sisrのための動的残差セルフアテンションネットワーク(drsan)を提案する。
提案するdrsanは動的残留注意に基づく動的残留接続を持ち,入力統計量に応じて構造を適応的に変化させる。
具体的には,残差パスと入力画像統計の相互関係を見出すとともに,各残差パスに適切な重みを割り当てることで,draを明示的にモデル化する動的残差モジュールを提案する。
また,残余構造と協調して付加パラメータを伴わずに3次元のアテンションマップを生成する残余自己アテンション(RSA)モジュールを提案する。
DRAとRSAを組み合わせた動的スキームでは,計算複雑性とネットワーク性能のトレードオフが効果的である。
実験の結果、DRSANはSISRの既存の最先端軽量モデルに匹敵する性能を示した。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - MsDC-DEQ-Net: Deep Equilibrium Model (DEQ) with Multi-scale Dilated
Convolution for Image Compressive Sensing (CS) [0.0]
圧縮センシング(CS)は、従来のサンプリング法よりも少ない測定値を用いてスパース信号の回復を可能にする技術である。
我々はCSを用いた自然画像再構成のための解釈可能かつ簡潔なニューラルネットワークモデルを構築した。
MsDC-DEQ-Netと呼ばれるこのモデルは、最先端のネットワークベースの手法と比較して、競争力のある性能を示す。
論文 参考訳(メタデータ) (2024-01-05T16:25:58Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Effective Invertible Arbitrary Image Rescaling [77.46732646918936]
Invertible Neural Networks (INN)は、ダウンスケーリングとアップスケーリングのサイクルを共同で最適化することにより、アップスケーリングの精度を大幅に向上させることができる。
本研究の1つのモデルのみをトレーニングすることにより、任意の画像再スケーリングを実現するために、単純で効果的な非可逆的再スケーリングネットワーク(IARN)を提案する。
LR出力の知覚品質を損なうことなく、双方向任意再スケーリングにおいて最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-09-26T22:22:30Z) - Lightweight Image Super-Resolution with Hierarchical and Differentiable
Neural Architecture Search [38.83764580480486]
単一画像スーパーリゾリューション(SISR)タスクは、ディープニューラルネットワークで大きなパフォーマンスを達成しました。
本稿では, セルレベルとネットワークレベルの両方に対して, 軽量SISRモデル検索のための新しい微分可能なニューラルアーキテクチャ探索手法を提案する。
論文 参考訳(メタデータ) (2021-05-09T13:30:16Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Accurate and Lightweight Image Super-Resolution with Model-Guided Deep
Unfolding Network [63.69237156340457]
我々は、モデル誘導深部展開ネットワーク(MoG-DUN)と呼ばれるSISRに対する説明可能なアプローチを提示し、提唱する。
MoG-DUNは正確(エイリアスを少なくする)、計算効率(モデルパラメータを減らした)、多用途(多重劣化を処理できる)である。
RCAN, SRDNF, SRFBNを含む既存の最先端画像手法に対するMoG-DUN手法の優位性は、いくつかの一般的なデータセットと様々な劣化シナリオに関する広範な実験によって実証されている。
論文 参考訳(メタデータ) (2020-09-14T08:23:37Z) - Deep Adaptive Inference Networks for Single Image Super-Resolution [72.7304455761067]
シングルイメージ超解像(SISR)は、ディープ畳み込みニューラルネットワーク(CNN)の展開により、近年大きく進歩している。
本稿では,深部SISR(AdaDSR)の適応型推論ネットワークを活用することで,この問題に対処する。
我々のAdaDSRは、SISRモデルをバックボーンとし、画像の特徴とリソース制約を入力として取り、ローカルネットワーク深さのマップを予測する軽量アダプタモジュールを備える。
論文 参考訳(メタデータ) (2020-04-08T10:08:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。