論文の概要: Large coordinate kernel attention network for lightweight image super-resolution
- arxiv url: http://arxiv.org/abs/2405.09353v2
- Date: Fri, 30 Aug 2024 12:41:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-02 19:51:26.099334
- Title: Large coordinate kernel attention network for lightweight image super-resolution
- Title(参考訳): 軽量画像超解像のための大規模座標カーネルアテンションネットワーク
- Authors: Fangwei Hao, Jiesheng Wu, Haotian Lu, Ji Du, Jing Xu, Xiaoxuan Xu,
- Abstract要約: マルチスケールの受容場を持つ高効率なビルディングブロックとして,マルチスケールのブループリント分離可能な畳み込み(MBSConv)を提案する。
また,LKAの2次元畳み込みカーネルを水平および垂直の1次元カーネルに分解する大規模座標カーネルアテンション (LCKA) モジュールを提案する。
- 参考スコア(独自算出の注目度): 5.66935513638074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The multi-scale receptive field and large kernel attention (LKA) module have been shown to significantly improve performance in the lightweight image super-resolution task. However, existing lightweight super-resolution (SR) methods seldom pay attention to designing efficient building block with multi-scale receptive field for local modeling, and their LKA modules face a quadratic increase in computational and memory footprints as the convolutional kernel size increases. To address the first issue, we propose the multi-scale blueprint separable convolutions (MBSConv) as highly efficient building block with multi-scale receptive field, it can focus on the learning for the multi-scale information which is a vital component of discriminative representation. As for the second issue, we revisit the key properties of LKA in which we find that the adjacent direct interaction of local information and long-distance dependencies is crucial to provide remarkable performance. Thus, taking this into account and in order to mitigate the complexity of LKA, we propose a large coordinate kernel attention (LCKA) module which decomposes the 2D convolutional kernels of the depth-wise convolutional layers in LKA into horizontal and vertical 1-D kernels. LCKA enables the adjacent direct interaction of local information and long-distance dependencies not only in the horizontal direction but also in the vertical. Besides, LCKA allows for the direct use of extremely large kernels in the depth-wise convolutional layers to capture more contextual information, which helps to significantly improve the reconstruction performance, and it incurs lower computational complexity and memory footprints. Integrating MBSConv and LCKA, we propose a large coordinate kernel attention network (LCAN).
- Abstract(参考訳): マルチスケールの受容場と大きなカーネルアテンション (LKA) モジュールは、軽量画像超分解能タスクの性能を著しく向上することが示されている。
しかし、既存の軽量超解像法(SR)は、局所モデリングのためのマルチスケールの受容場を持つ効率的なビルディングブロックの設計にはほとんど注意を払わず、LKAモジュールは、畳み込みカーネルのサイズが大きくなるにつれて、計算量とメモリフットプリントの2次的な増加に直面している。
最初の課題に対処するために,マルチスケールの分離可能な畳み込み(MBSConv)をマルチスケールの受容場を持つ高効率なビルディングブロックとして提案し,識別表現の重要な要素であるマルチスケール情報の学習に焦点を合わせることができる。
第2の課題は、LKAの鍵となる特性を再考し、ローカル情報と長距離依存の直接的な相互作用は、顕著な性能を提供するために重要であることを発見した。
そこで本研究では,LKAの複雑さを緩和するために,LKAの深度方向の畳み込みレイヤの2次元畳み込みカーネルを水平および垂直1次元カーネルに分解する大規模な座標カーネルアテンション(LCKA)モジュールを提案する。
LCKAは、水平方向だけでなく垂直方向でも、局所情報と長距離依存の直接的な相互作用を可能にする。
さらに、LCKAは、深度的な畳み込み層において非常に大きなカーネルを直接使用することで、よりコンテキスト的な情報をキャプチャし、再構成性能を大幅に向上させ、計算複雑性とメモリフットプリントを低下させる。
MBSConvとLCKAを統合し,大規模なカーネルアテンションネットワーク(LCAN)を提案する。
関連論文リスト
- Efficient Learnable Collaborative Attention for Single Image Super-Resolution [18.955369476815136]
非局所注意(NLA)は、深部画像超解像(SR)における長距離特徴相関を捉える強力な手法である
本稿では,非局所的モデリングに帰納バイアスを導入する新しい学習可能協調意識(LCoA)を提案する。
我々のLCoAは、推論段階での非局所モデリング時間を約83%削減できる。
論文 参考訳(メタデータ) (2024-04-07T11:25:04Z) - Learning Enriched Features via Selective State Spaces Model for Efficient Image Deblurring [0.0]
Image Deblurringは、高品質な画像を、それに対応するぼやけた画像から復元することを目的としている。
本稿では、選択状態空間モデルを利用して、リッチで正確な特徴を集約する効率的な画像デブロアリングネットワークを提案する。
実験により,提案手法は広く用いられているベンチマークにおいて,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-03-29T10:40:41Z) - Low-Resolution Self-Attention for Semantic Segmentation [96.81482872022237]
我々は,グローバルコンテキストを計算コストの大幅な削減で捉えるために,低解像度自己認識(LRSA)機構を導入する。
我々のアプローチは、入力画像の解像度に関わらず、固定された低解像度空間における自己注意を計算することである。
本稿では,エンコーダ・デコーダ構造を持つビジョントランスであるLRFormerを構築することで,LRSA手法の有効性を示す。
論文 参考訳(メタデータ) (2023-10-08T06:10:09Z) - Large Separable Kernel Attention: Rethinking the Large Kernel Attention
Design in CNN [16.751500508997264]
LSKAと呼ばれる大分離カーネルアテンションモジュール群を提案する。
LSKAは深さ方向の畳み込み層の2次元畳み込みカーネルを縦1次元カーネルと縦1次元カーネルに分解する。
提案したLSKA設計は,カーネルサイズの増加に伴うテクスチャよりも,オブジェクトの形状に偏りがあることを実証する。
論文 参考訳(メタデータ) (2023-09-04T08:38:11Z) - Omni Aggregation Networks for Lightweight Image Super-Resolution [42.252518645833696]
この研究は、新しいOmni-SRアーキテクチャの下で2つの拡張されたコンポーネントを提案する。
まず、密接な相互作用原理に基づいて、Omni Self-Attention (OSA)ブロックを提案する。
第二に、準最適RFを緩和するマルチスケール相互作用方式を提案する。
論文 参考訳(メタデータ) (2023-04-20T12:05:14Z) - Learning Implicit Feature Alignment Function for Semantic Segmentation [51.36809814890326]
Implicit Feature Alignment Function (IFA)は、暗黙の神経表現の急速に拡大するトピックにインスパイアされている。
IFAは機能マップを異なるレベルで暗黙的に整列し、任意の解像度でセグメンテーションマップを生成することができることを示す。
提案手法は,様々なアーキテクチャの改善と組み合わせて,一般的なベンチマークにおける最先端の精度のトレードオフを実現する。
論文 参考訳(メタデータ) (2022-06-17T09:40:14Z) - Efficient Non-Local Contrastive Attention for Image Super-Resolution [48.093500219958834]
非局所的注意(NLA)は、自然画像の内在的特徴相関を利用して、単一画像超解法(SISR)に大きな改善をもたらす。
本稿では,長期視覚モデリングを行い,より関連性の高い非局所的特徴を活用するための,効率的な非局所的コントラスト注意(ENLCA)を提案する。
論文 参考訳(メタデータ) (2022-01-11T05:59:09Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Sequential Hierarchical Learning with Distribution Transformation for
Image Super-Resolution [83.70890515772456]
画像SRのための逐次階層学習型超解像ネットワーク(SHSR)を構築した。
特徴のスケール間相関を考察し、階層的情報を段階的に探索するシーケンシャルなマルチスケールブロック(SMB)を考案する。
実験結果から,SHSRは最先端手法に優れた定量的性能と視覚的品質が得られることが示された。
論文 参考訳(メタデータ) (2020-07-19T01:35:53Z) - Cross-Attention in Coupled Unmixing Nets for Unsupervised Hyperspectral
Super-Resolution [79.97180849505294]
本稿では,HSIの空間分解能を高めるために,CUCaNetというクロスアテンション機構を備えた新しい結合型アンミックスネットワークを提案する。
3つの広く使われているHS-MSデータセットに対して、最先端のHSI-SRモデルと比較実験を行った。
論文 参考訳(メタデータ) (2020-07-10T08:08:20Z) - Hybrid Multiple Attention Network for Semantic Segmentation in Aerial
Images [24.35779077001839]
グローバルな相関関係を適応的に捉えるために,Hybrid Multiple Attention Network (HMANet) という新しいアテンションベースのフレームワークを提案する。
本稿では,機能的冗長性を低減し,自己注意機構の効率を向上させるため,単純で効果的な領域シャッフルアテンション(RSA)モジュールを提案する。
論文 参考訳(メタデータ) (2020-01-09T07:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。