論文の概要: Efficient Star Distillation Attention Network for Lightweight Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2506.12475v1
- Date: Sat, 14 Jun 2025 12:24:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.29095
- Title: Efficient Star Distillation Attention Network for Lightweight Image Super-Resolution
- Title(参考訳): 軽量画像超解像のための高効率スター蒸留アテンションネットワーク
- Authors: Fangwei Hao, Ji Du, Desheng Kong, Jiesheng Wu, Jing Xu, Ping Li,
- Abstract要約: 我々は,HDNL特徴空間における情報蒸留による識別表現学習を強化するために,スター蒸留モジュール(SDM)を提案する。
さらに,多形多大カーネルアテンション(MM-LKA)モジュールを提案する。
モデル複雑性の低いSDANは、量的にも視覚的にも優れた性能をもたらす。
- 参考スコア(独自算出の注目度): 14.729612888730404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, the performance of lightweight Single-Image Super-Resolution (SISR) has been improved significantly with the application of Convolutional Neural Networks (CNNs) and Large Kernel Attention (LKA). However, existing information distillation modules for lightweight SISR struggle to map inputs into High-Dimensional Non-Linear (HDNL) feature spaces, limiting their representation learning. And their LKA modules possess restricted ability to capture the multi-shape multi-scale information for long-range dependencies while encountering a quadratic increase in the computational burden with increasing convolutional kernel size of its depth-wise convolutional layer. To address these issues, we firstly propose a Star Distillation Module (SDM) to enhance the discriminative representation learning via information distillation in the HDNL feature spaces. Besides, we present a Multi-shape Multi-scale Large Kernel Attention (MM-LKA) module to learn representative long-range dependencies while incurring low computational and memory footprints, leading to improving the performance of CNN-based self-attention significantly. Integrating SDM and MM-LKA, we develop a Residual Star Distillation Attention Module (RSDAM) and take it as the building block of the proposed efficient Star Distillation Attention Network (SDAN) which possesses high reconstruction efficiency to recover a higher-quality image from the corresponding low-resolution (LR) counterpart. When compared with other lightweight state-of-the-art SISR methods, extensive experiments show that our SDAN with low model complexity yields superior performance quantitatively and visually.
- Abstract(参考訳): 近年、畳み込みニューラルネットワーク(CNN)とLKA(Large Kernel Attention)の適用により、軽量なシングルイメージ超解法(SISR)の性能が大幅に向上している。
しかし、軽量SISRのための既存の情報蒸留モジュールは、入力をHDNL(High-dimensional Non-Linear)特徴空間にマッピングするのに苦労し、表現学習を制限している。
また、LKAモジュールは、その深みの畳み込みレイヤの畳み込みカーネルサイズを増大させることで、計算負荷の2次増加に直面しながら、長距離依存のためのマルチスケール情報をキャプチャする能力に制限がある。
これらの問題に対処するために、まず、HDNL特徴空間における情報蒸留による識別表現学習を強化するために、スター蒸留モジュール(SDM)を提案する。
さらに,計算量やメモリフットプリントの少ないマルチシェイプマルチスケール・大規模カーネル・アテンション(MM-LKA)モジュールを提案し,CNNベースの自己アテンションの性能を大幅に向上させる。
SDMとMM-LKAを統合し,高精細度(LR)画像の高精細化を図り,高精細度(LR)画像から高精細度(高精細度)の高精細化を実現するため,SDMとMM-LKAを統合し,高精細度(高精細度)の高精細度(高精細度)の高精細化を図り,高精細度(高精細度)の高精細度(高精細度)な高精細度(高精細度)な高精細度(高精細度)な高精細度(高精細度)の高精細度(高精細度)画像の高精細度化を実現する。
他の軽量なSISR法と比較すると、モデル複雑性の低いSDANでは、定量的かつ視覚的に優れた性能が得られる。
関連論文リスト
- Distillation-Supervised Convolutional Low-Rank Adaptation for Efficient Image Super-Resolution [19.22142805041799]
畳み込みニューラルネットワーク(CNN)は画像の高解像度化に広く利用されている。
本稿では,DSCLoRA(Distillation-Supervised Convolutional Low-Rank Adaptation)を提案する。
論文 参考訳(メタデータ) (2025-04-15T15:12:57Z) - Large coordinate kernel attention network for lightweight image super-resolution [5.66935513638074]
マルチスケールの受容場を持つ高効率なビルディングブロックとして,マルチスケールのブループリント分離可能な畳み込み(MBSConv)を提案する。
また,LKAの2次元畳み込みカーネルを水平および垂直の1次元カーネルに分解する大規模座標カーネルアテンション (LCKA) モジュールを提案する。
論文 参考訳(メタデータ) (2024-05-15T14:03:38Z) - Low-Resolution Self-Attention for Semantic Segmentation [93.30597515880079]
我々は,グローバルコンテキストを計算コストの大幅な削減で捉えるために,低解像度自己認識(LRSA)機構を導入する。
我々のアプローチは、入力画像の解像度に関わらず、固定された低解像度空間における自己注意を計算することである。
本稿では,エンコーダ・デコーダ構造を持つビジョントランスであるLRFormerを構築することで,LRSA手法の有効性を示す。
論文 参考訳(メタデータ) (2023-10-08T06:10:09Z) - ESSAformer: Efficient Transformer for Hyperspectral Image
Super-resolution [76.7408734079706]
単一ハイパースペクトル像超解像(単一HSI-SR)は、低分解能観測から高分解能ハイパースペクトル像を復元することを目的としている。
本稿では,1つのHSI-SRの繰り返し精製構造を持つESSA注目組込みトランスフォーマネットワークであるESSAformerを提案する。
論文 参考訳(メタデータ) (2023-07-26T07:45:14Z) - Implicit Diffusion Models for Continuous Super-Resolution [65.45848137914592]
本稿では,高忠実度連続画像超解像のためのインプリシティ拡散モデル(IDM)を提案する。
IDMは暗黙のニューラル表現とデノナイジング拡散モデルを統合されたエンドツーエンドフレームワークに統合する。
スケーリング係数は分解能を調節し、最終出力におけるLR情報と生成された特徴の比率を変調する。
論文 参考訳(メタデータ) (2023-03-29T07:02:20Z) - Lightweight Image Super-Resolution with Multi-scale Feature Interaction
Network [15.846394239848959]
軽量マルチスケール機能インタラクションネットワーク(MSFIN)を提案する。
軽量SISRでは、MSFINは受容野を拡張し、低解像度の観測画像の情報的特徴を適切に活用する。
提案したMSFINは,より軽量なモデルで最先端技術に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2021-03-24T07:25:21Z) - MPRNet: Multi-Path Residual Network for Lightweight Image Super
Resolution [2.3576437999036473]
軽量SRにおけるSOTA性能を向上させる軽量超解像ネットワークを提案する。
提案アーキテクチャには新たなアテンション機構であるTwo-Fold Attention Moduleが含まれており,モデルの表現能力を最大化することができる。
論文 参考訳(メタデータ) (2020-11-09T17:11:15Z) - Accurate and Lightweight Image Super-Resolution with Model-Guided Deep
Unfolding Network [63.69237156340457]
我々は、モデル誘導深部展開ネットワーク(MoG-DUN)と呼ばれるSISRに対する説明可能なアプローチを提示し、提唱する。
MoG-DUNは正確(エイリアスを少なくする)、計算効率(モデルパラメータを減らした)、多用途(多重劣化を処理できる)である。
RCAN, SRDNF, SRFBNを含む既存の最先端画像手法に対するMoG-DUN手法の優位性は、いくつかの一般的なデータセットと様々な劣化シナリオに関する広範な実験によって実証されている。
論文 参考訳(メタデータ) (2020-09-14T08:23:37Z) - Lightweight image super-resolution with enhanced CNN [82.36883027158308]
強い表現力を持つ深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像(SISR)において印象的な性能を達成した
情報抽出・拡張ブロック(IEEB)、再構築ブロック(RB)、情報精製ブロック(IRB)の3つの連続したサブブロックを持つ軽量拡張SR CNN(LESRCNN)を提案する。
IEEBは階層的低分解能(LR)特徴を抽出し、SISRの深い層上の浅い層の記憶能力を高めるために、得られた特徴を段階的に集約する。
RBはグローバルに拡散することで低周波特徴を高周波特徴に変換する
論文 参考訳(メタデータ) (2020-07-08T18:03:40Z) - Image Super-Resolution with Cross-Scale Non-Local Attention and
Exhaustive Self-Exemplars Mining [66.82470461139376]
本稿では,再帰型ニューラルネットワークに統合されたCS-NLアテンションモジュールを提案する。
新しいCS-NLと局所的および非局所的非局所的前駆体を強力な再帰核融合セルで組み合わせることで、単一の低分解能画像内でよりクロススケールな特徴相関を見出すことができる。
論文 参考訳(メタデータ) (2020-06-02T07:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。