論文の概要: Efficient Image Super-Resolution via Symmetric Visual Attention Network
- arxiv url: http://arxiv.org/abs/2401.08913v1
- Date: Wed, 17 Jan 2024 01:55:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 17:27:48.896774
- Title: Efficient Image Super-Resolution via Symmetric Visual Attention Network
- Title(参考訳): 対称視覚注意ネットワークによる高能率画像超解像
- Authors: Chengxu Wu, Qinrui Fan, Shu Hu, Xi Wu, Xin Wang, Jing Hu
- Abstract要約: 大きな受容場は画像の品質を著しく向上させるが、計算コストは高すぎる。
本研究では,大きな受容場を応用して,SVAN(Symmetric Visual Attention Network)を提案する。
我々のネットワークは、パラメータの最小化とモデルの知覚能力の向上を図りながら、大きな受容場を得る。
- 参考スコア(独自算出の注目度): 15.136746521654786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An important development direction in the Single-Image Super-Resolution
(SISR) algorithms is to improve the efficiency of the algorithms. Recently,
efficient Super-Resolution (SR) research focuses on reducing model complexity
and improving efficiency through improved deep small kernel convolution,
leading to a small receptive field. The large receptive field obtained by large
kernel convolution can significantly improve image quality, but the
computational cost is too high. To improve the reconstruction details of
efficient super-resolution reconstruction, we propose a Symmetric Visual
Attention Network (SVAN) by applying large receptive fields. The SVAN
decomposes a large kernel convolution into three different combinations of
convolution operations and combines them with an attention mechanism to form a
Symmetric Large Kernel Attention Block (SLKAB), which forms a symmetric
attention block with a bottleneck structure by the size of the receptive field
in the convolution combination to extract depth features effectively as the
basic component of the SVAN. Our network gets a large receptive field while
minimizing the number of parameters and improving the perceptual ability of the
model. The experimental results show that the proposed SVAN can obtain
high-quality super-resolution reconstruction results using only about 30% of
the parameters of existing SOTA methods.
- Abstract(参考訳): SISR(Single-Image Super-Resolution)アルゴリズムの重要な開発方向は、アルゴリズムの効率を改善することである。
近年、効率的な超解法(SR)研究は、モデル複雑性の低減と、より深いカーネルの畳み込みの改善による効率の向上に焦点が当てられている。
大きなカーネルの畳み込みによって得られる大きな受容場は画像の品質を大幅に向上させるが、計算コストは高すぎる。
本研究では,高効率な超解像再構成の再構成詳細を改善するため,大きな受容場を適用し,対称視覚注意ネットワーク (svan) を提案する。
SVANは、大きなカーネルの畳み込みを、畳み込み操作の3つの異なる組み合わせに分解し、これらをアテンション機構と組み合わせて、SVANの基本成分である奥行き特徴を効果的に抽出するために、畳み込み組み合わせにおける受容野の大きさによってボトルネック構造を有する対称アテンションブロックを形成するシンメトリ大カーネルアテンションブロック(SLKAB)を形成する。
我々のネットワークは、パラメータの最小化とモデルの知覚能力の向上を図りながら、大きな受容場を得る。
実験の結果,既存のSOTA手法のパラメータの約30%を用いて,高品質な超解像再構成結果が得られることがわかった。
関連論文リスト
- Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Efficient Model Agnostic Approach for Implicit Neural Representation
Based Arbitrary-Scale Image Super-Resolution [5.704360536038803]
単一の画像超解像(SISR)は、主に深層畳み込みネットワークによって大きく進歩した。
従来のネットワークは、画像を一定のスケールにスケールアップすることに限定されており、任意のスケールのイメージを生成するために暗黙の神経機能を利用することになる。
我々は,任意のスケールで超解像を実現する,新しい,効率的なフレームワークであるMixture of Experts Implicit Super-Resolution(MoEISR)を導入する。
論文 参考訳(メタデータ) (2023-11-20T05:34:36Z) - ESSAformer: Efficient Transformer for Hyperspectral Image
Super-resolution [76.7408734079706]
単一ハイパースペクトル像超解像(単一HSI-SR)は、低分解能観測から高分解能ハイパースペクトル像を復元することを目的としている。
本稿では,1つのHSI-SRの繰り返し精製構造を持つESSA注目組込みトランスフォーマネットワークであるESSAformerを提案する。
論文 参考訳(メタデータ) (2023-07-26T07:45:14Z) - Large-scale Global Low-rank Optimization for Computational Compressed
Imaging [8.594666859332124]
本稿では,グローバルな自己相似性と高効率な大規模再構成を実現するグローバル低ランク(GLR)最適化手法を提案する。
深層学習における自己認識機構に触発されたGLRは、従来の一様選択の代わりに特徴検出によって画像パッチを抽出する。
時間・周波数・スペクトル次元におけるGLRの有効性を実験的に実証した。
論文 参考訳(メタデータ) (2023-01-08T14:12:51Z) - Rank-Enhanced Low-Dimensional Convolution Set for Hyperspectral Image
Denoising [50.039949798156826]
本稿では,ハイパースペクトル(HS)画像の難解化問題に対処する。
ランク付き低次元畳み込み集合(Re-ConvSet)を提案する。
次に、Re-ConvSetを広く使われているU-Netアーキテクチャに組み込んで、HS画像復号法を構築する。
論文 参考訳(メタデータ) (2022-07-09T13:35:12Z) - Image Super-resolution with An Enhanced Group Convolutional Neural
Network [102.2483249598621]
学習能力の強いCNNは、超解像問題を解くために広く選択されている。
浅層構造を持つ超解像群CNN(ESRGCNN)を提案する。
ESRGCNNは、SISRの性能、複雑さ、実行速度、画質評価およびSISRの視覚効果の観点から、最先端技術を上回っていると報告されている。
論文 参考訳(メタデータ) (2022-05-29T00:34:25Z) - Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution [64.54162195322246]
畳み込みニューラルネットワーク(CNN)は画像超解像(SR)において大きな成功を収めた
ほとんどのディープCNNベースのSRモデルは、高い性能を得るために大量の計算を処理している。
SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することで,HPUN(Hybrid Pixel-Unshuffled Network)を提案する。
論文 参考訳(メタデータ) (2022-03-16T20:10:41Z) - Asymmetric CNN for image super-resolution [102.96131810686231]
深層畳み込みニューラルネットワーク(CNN)は、過去5年間で低レベルビジョンに広く適用されています。
画像超解像のための非対称ブロック(AB)、mem?ory拡張ブロック(MEB)、高周波数特徴強調ブロック(HFFEB)からなる非対称CNN(ACNet)を提案する。
我々のACNetは、ブラインドノイズの単一画像超解像(SISR)、ブラインドSISR、ブラインドSISRを効果的に処理できる。
論文 参考訳(メタデータ) (2021-03-25T07:10:46Z) - Hierarchical Residual Attention Network for Single Image
Super-Resolution [2.0571256241341924]
本稿では,残差特徴と注意集約の効率的な手法に基づく新しい軽量超解像モデルを提案する。
提案アーキテクチャは,比較的少ない計算量とメモリフットプリントを維持しながら,いくつかのデータセットにおける最先端性能を上回る。
論文 参考訳(メタデータ) (2020-12-08T17:24:28Z) - Deep Iterative Residual Convolutional Network for Single Image
Super-Resolution [31.934084942626257]
我々は、ISRResCNet(Deep Iterative Super-Resolution Residual Convolutional Network)を提案する。
残差学習アプローチを用いて、深層ネットワークを反復的に訓練することにより、強力な画像正規化と大規模最適化手法を活用する。
トレーニング可能なパラメータがいくつかある本手法は,最先端の手法と比較して,異なるスケーリング要因に対する結果を改善する。
論文 参考訳(メタデータ) (2020-09-07T12:54:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。