論文の概要: Efficient Single Image Super-Resolution with Entropy Attention and Receptive Field Augmentation
- arxiv url: http://arxiv.org/abs/2408.04158v1
- Date: Thu, 8 Aug 2024 02:03:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-09 17:00:24.100890
- Title: Efficient Single Image Super-Resolution with Entropy Attention and Receptive Field Augmentation
- Title(参考訳): エントロピー注意と受容野増強を併用した高能率単一画像超解像
- Authors: Xiaole Zhao, Linze Li, Chengxing Xie, Xiaoming Zhang, Ting Jiang, Wenjie Lin, Shuaicheng Liu, Tianrui Li,
- Abstract要約: 本稿では,新しいエントロピーアテンション(EA)とシフトする大きなカーネルアテンション(SLKA)からなる,効率的な単一画像超解像(SISR)モデルを提案する。
EAはガウス分布で条件付けられた中間特徴のエントロピーを増大させ、その後の推論に対してより情報的な入力を提供する。
SLKAは、チャネルシフトの助けを借りてSRモデルの受容領域を拡張し、階層的特徴の多様性を高めることを好む。
- 参考スコア(独自算出の注目度): 34.50541063621832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer-based deep models for single image super-resolution (SISR) have greatly improved the performance of lightweight SISR tasks in recent years. However, they often suffer from heavy computational burden and slow inference due to the complex calculation of multi-head self-attention (MSA), seriously hindering their practical application and deployment. In this work, we present an efficient SR model to mitigate the dilemma between model efficiency and SR performance, which is dubbed Entropy Attention and Receptive Field Augmentation network (EARFA), and composed of a novel entropy attention (EA) and a shifting large kernel attention (SLKA). From the perspective of information theory, EA increases the entropy of intermediate features conditioned on a Gaussian distribution, providing more informative input for subsequent reasoning. On the other hand, SLKA extends the receptive field of SR models with the assistance of channel shifting, which also favors to boost the diversity of hierarchical features. Since the implementation of EA and SLKA does not involve complex computations (such as extensive matrix multiplications), the proposed method can achieve faster nonlinear inference than Transformer-based SR models while maintaining better SR performance. Extensive experiments show that the proposed model can significantly reduce the delay of model inference while achieving the SR performance comparable with other advanced models.
- Abstract(参考訳): 近年,シングルイメージ・スーパーレゾリューション(SISR)のためのトランスフォーマーベースのディープモデルにより,軽量なSISRタスクの性能が大幅に向上している。
しかし、多頭部自己注意(MSA)の複雑な計算により計算負荷が重く、推論が遅いことがしばしばあり、実用的応用や展開を著しく妨げている。
本研究では、モデル効率とSR性能のジレンマを軽減するための効率的なSRモデルを提案する。このモデルでは、エントロピー注意と受容場拡張ネットワーク(EARFA)と呼ばれ、新しいエントロピー注意(EA)とシフトする大きなカーネル注意(SLKA)で構成されている。
情報理論の観点からは、EAはガウス分布に条件付けられた中間特徴のエントロピーを高め、その後の推論に対してより情報的な入力を提供する。
一方、SLKAはチャネルシフトの助けを借りてSRモデルの受容領域を拡張し、階層的特徴の多様性を高めることを好む。
EAとSLKAの実装は複雑な計算(行列乗算など)を含まないため、提案手法はより優れたSR性能を維持しつつトランスフォーマーベースのSRモデルよりも高速な非線形推論を実現することができる。
実験の結果,提案モデルでは,SR性能を他の高度なモデルと比較しながら,モデル推論の遅延を大幅に低減できることがわかった。
関連論文リスト
- Degradation-Guided One-Step Image Super-Resolution with Diffusion Priors [75.24313405671433]
拡散に基づく画像超解像法 (SR) は、事前訓練された大規模なテキスト・画像拡散モデルを先行として活用することにより、顕著な成功を収めた。
本稿では,拡散型SR手法の効率問題に対処する新しい一段階SRモデルを提案する。
既存の微調整戦略とは異なり、SR専用の劣化誘導低ランク適応 (LoRA) モジュールを設計した。
論文 参考訳(メタデータ) (2024-09-25T16:15:21Z) - Large Kernel Distillation Network for Efficient Single Image Super-Resolution [8.094254341695684]
近年,シングルイメージ超解像 (SISR) が注目されている。
現在のSOTA(State-of-the-art)モデルは高い計算コストなどの問題に直面している。
本稿では,LKDN(Large Kernel Distillation Network)を提案する。
論文 参考訳(メタデータ) (2024-07-19T14:21:56Z) - Binarized Diffusion Model for Image Super-Resolution [61.963833405167875]
超圧縮アルゴリズムであるバイナリ化は、高度な拡散モデル(DM)を効果的に加速する可能性を提供する
既存の二項化法では性能が著しく低下する。
画像SRのための新しいバイナライズ拡散モデルBI-DiffSRを提案する。
論文 参考訳(メタデータ) (2024-06-09T10:30:25Z) - Enhancing Hyperspectral Images via Diffusion Model and Group-Autoencoder
Super-resolution Network [29.6360974619655]
Group-Autoencoder (GAE)フレームワークは、高次元ハイパースペクトルデータを低次元潜在空間に符号化する。
DMGASRの高効率HSI SRモデル(DMGASR)
自然と遠隔の両方のハイパースペクトルデータセットに対する実験結果から,提案手法は視覚的・計量的にも他の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-02-27T07:57:28Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - ESSAformer: Efficient Transformer for Hyperspectral Image
Super-resolution [76.7408734079706]
単一ハイパースペクトル像超解像(単一HSI-SR)は、低分解能観測から高分解能ハイパースペクトル像を復元することを目的としている。
本稿では,1つのHSI-SRの繰り返し精製構造を持つESSA注目組込みトランスフォーマネットワークであるESSAformerを提案する。
論文 参考訳(メタデータ) (2023-07-26T07:45:14Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Incorporating Transformer Designs into Convolutions for Lightweight
Image Super-Resolution [46.32359056424278]
大規模な畳み込みカーネルは畳み込みニューラルネットワークの設計に人気がある。
カーネルのサイズが大きくなるとパラメータの数が2倍に増加し、計算量やメモリの要求も大きくなる。
本稿では,自己注意機構を付加した標準畳み込みを改良した近傍注意モジュールを提案する。
NAモジュールをベースとして,TSRと呼ばれる軽量単一画像超解像(SISR)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-25T01:32:18Z) - Super-resolution data assimilation [0.0]
我々は、画像超解像技術にインスパイアされた「超解像データ同化(SRDA)」のアプローチをテストしている。
低解像度の予測から始めて、ニューラルネットワーク(NN)は高解像度のフィールドをエミュレートし、高解像度の観測を同化するために使用される。
SRDA は低分解能データ同化法と SRDA バージョンを NN の代わりに立方スプラインで上回ることを示す。
論文 参考訳(メタデータ) (2021-09-04T10:11:09Z) - Unsupervised Alternating Optimization for Blind Hyperspectral Imagery
Super-resolution [40.350308926790255]
本稿では, 盲点HSI融合問題に対処するために, 盲点HSI SR法を提案する。
本稿ではまず,デジェネレーションモデルを推定し,遅延画像の再構成を行うために,逐次最適化に基づく深層フレームワークを提案する。
そして,ネットワークを事前学習するメタラーニングに基づく機構が提案され,ネットワークの速度と一般化能力を効果的に向上させることができる。
論文 参考訳(メタデータ) (2020-12-03T07:52:32Z) - Iterative Network for Image Super-Resolution [69.07361550998318]
単一画像超解像(SISR)は、最近の畳み込みニューラルネットワーク(CNN)の発展により、大幅に活性化されている。
本稿では、従来のSISRアルゴリズムに関する新たな知見を提供し、反復最適化に依存するアプローチを提案する。
反復最適化の上に,新しい反復型超解像ネットワーク (ISRN) を提案する。
論文 参考訳(メタデータ) (2020-05-20T11:11:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。