論文の概要: LKFMixer: Exploring Large Kernel Feature For Efficient Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2508.11391v1
- Date: Fri, 15 Aug 2025 10:50:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.858884
- Title: LKFMixer: Exploring Large Kernel Feature For Efficient Image Super-Resolution
- Title(参考訳): LKFMixer:効率的な画像超解像のための大きなカーネル機能
- Authors: Yinggan Tang, Quanwei Hu,
- Abstract要約: 我々は,非局所的な特徴を捕捉する自己認識能力をシミュレートするために,純粋畳み込みニューラルネットワーク (CNN) モデル LKFMixer を提案する。
LKFMixer-Lは、$times$4スケールで0.6dB PSNRの改善を実現し、推論速度は$times$5倍高速である。
- 参考スコア(独自算出の注目度): 4.254099382808598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of self-attention (SA) in Transformer demonstrates the importance of non-local information to image super-resolution (SR), but the huge computing power required makes it difficult to implement lightweight models. To solve this problem, we propose a pure convolutional neural network (CNN) model, LKFMixer, which utilizes large convolutional kernel to simulate the ability of self-attention to capture non-local features. Specifically, we increase the kernel size to 31 to obtain the larger receptive field as possible, and reduce the parameters and computations by coordinate decomposition. Meanwhile, a spatial feature modulation block (SFMB) is designed to enhance the focus of feature information on both spatial and channel dimension. In addition, by introducing feature selection block (FSB), the model can adaptively adjust the weights between local features and non-local features. Extensive experiments show that the proposed LKFMixer family outperform other state-of-the-art (SOTA) methods in terms of SR performance and reconstruction quality. In particular, compared with SwinIR-light on Manga109 dataset, LKFMixer-L achieves 0.6dB PSNR improvement at $\times$4 scale, while the inference speed is $\times$5 times faster. The code is available at https://github.com/Supereeeee/LKFMixer.
- Abstract(参考訳): Transformerにおける自己注意(SA)の成功は、画像超解像(SR)に対する非局所情報の重要性を示しているが、膨大な計算能力を必要とするため、軽量モデルの実装が困難である。
この問題を解決するために,大規模な畳み込みカーネルを用いて非局所的な特徴を捕捉する自己認識能力をシミュレートする純粋畳み込みニューラルネットワーク (CNN) モデル LKFMixer を提案する。
具体的には、カーネルサイズを31に増やして、より大きな受容場をできるだけ獲得し、座標分解によるパラメータと計算を小さくする。
一方、空間的特徴変調ブロック(SFMB)は、空間的およびチャネル的次元の両方に特徴情報の焦点を絞るように設計されている。
さらに,特徴選択ブロック(FSB)を導入することで,局所特徴量と非局所特徴量との重み付けを適応的に調整することができる。
拡張実験により,提案したLKFMixerファミリーは,SR性能と復元品質の点で,他の最先端(SOTA)手法よりも優れていることが示された。
特にManga109データセットのSwinIR-lightと比較して、LKFMixer-Lは0.6dB PSNRの改善を$\times$4スケールで達成し、推論速度は$\times$5倍高速である。
コードはhttps://github.com/Supereeeee/LKFMixer.comで入手できる。
関連論文リスト
- Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Incorporating Transformer Designs into Convolutions for Lightweight
Image Super-Resolution [46.32359056424278]
大規模な畳み込みカーネルは畳み込みニューラルネットワークの設計に人気がある。
カーネルのサイズが大きくなるとパラメータの数が2倍に増加し、計算量やメモリの要求も大きくなる。
本稿では,自己注意機構を付加した標準畳み込みを改良した近傍注意モジュールを提案する。
NAモジュールをベースとして,TSRと呼ばれる軽量単一画像超解像(SISR)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-25T01:32:18Z) - Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution [90.16462805389943]
視覚変換器(ViT)のようなブロック上に,空間適応型特徴変調(SAFM)機構を開発する。
提案法は最先端のSR法よりも3倍程度小さい。
論文 参考訳(メタデータ) (2023-02-27T14:19:31Z) - ShuffleMixer: An Efficient ConvNet for Image Super-Resolution [88.86376017828773]
本稿では、大きな畳み込みとチャネル分割シャッフル操作を探索する軽量画像超解像のためのShuffleMixerを提案する。
具体的には,チャネル分割とシャッフルを基本成分とする2つのプロジェクション層を効率よく混合する。
実験結果から,ShuffleMixerはモデルパラメータやFLOPの手法に比べて約6倍小さいことがわかった。
論文 参考訳(メタデータ) (2022-05-30T15:26:52Z) - Asymmetric CNN for image super-resolution [102.96131810686231]
深層畳み込みニューラルネットワーク(CNN)は、過去5年間で低レベルビジョンに広く適用されています。
画像超解像のための非対称ブロック(AB)、mem?ory拡張ブロック(MEB)、高周波数特徴強調ブロック(HFFEB)からなる非対称CNN(ACNet)を提案する。
我々のACNetは、ブラインドノイズの単一画像超解像(SISR)、ブラインドSISR、ブラインドSISRを効果的に処理できる。
論文 参考訳(メタデータ) (2021-03-25T07:10:46Z) - Sequential Hierarchical Learning with Distribution Transformation for
Image Super-Resolution [83.70890515772456]
画像SRのための逐次階層学習型超解像ネットワーク(SHSR)を構築した。
特徴のスケール間相関を考察し、階層的情報を段階的に探索するシーケンシャルなマルチスケールブロック(SMB)を考案する。
実験結果から,SHSRは最先端手法に優れた定量的性能と視覚的品質が得られることが示された。
論文 参考訳(メタデータ) (2020-07-19T01:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。