論文の概要: Swift Parameter-free Attention Network for Efficient Super-Resolution
- arxiv url: http://arxiv.org/abs/2311.12770v1
- Date: Tue, 21 Nov 2023 18:30:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 23:23:02.883118
- Title: Swift Parameter-free Attention Network for Efficient Super-Resolution
- Title(参考訳): 効率的な超解法のためのスウィフトパラメータフリーアテンションネットワーク
- Authors: Cheng Wan, Hongyuan Yu, Zhiqi Li, Yihang Chen, Yajun Zou, Yuqing Liu,
Xuanwu Yin, Kunlong Zuo
- Abstract要約: SISR(Single Image Super-Resolution)は、低レベルのコンピュータビジョンにおいて重要な課題である。
Swiftを提案します。
パラメータフリーアテンションネットワーク(SPAN)は、パラメータカウント、推論速度、画像品質のバランスをとる高効率なSISRモデルである。
複数のベンチマークでSPANを評価し,画像品質と推論速度の両面で既存の高効率超解像モデルより優れていることを示した。
- 参考スコア(独自算出の注目度): 8.726251939569899
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single Image Super-Resolution (SISR) is a crucial task in low-level computer
vision, aiming to reconstruct high-resolution images from low-resolution
counterparts. Conventional attention mechanisms have significantly improved
SISR performance but often result in complex network structures and large
number of parameters, leading to slow inference speed and large model size. To
address this issue, we propose the Swift Parameter-free Attention Network
(SPAN), a highly efficient SISR model that balances parameter count, inference
speed, and image quality. SPAN employs a novel parameter-free attention
mechanism, which leverages symmetric activation functions and residual
connections to enhance high-contribution information and suppress redundant
information. Our theoretical analysis demonstrates the effectiveness of this
design in achieving the attention mechanism's purpose. We evaluate SPAN on
multiple benchmarks, showing that it outperforms existing efficient
super-resolution models in terms of both image quality and inference speed,
achieving a significant quality-speed trade-off. This makes SPAN highly
suitable for real-world applications, particularly in resource-constrained
scenarios. Notably, our model attains the best PSNR of 27.09 dB, and the test
runtime of our team is reduced by 7.08ms in the NTIRE 2023 efficient
super-resolution challenge. Our code and models are made publicly available at
\url{https://github.com/hongyuanyu/SPAN}.
- Abstract(参考訳): SISR(Single Image Super-Resolution)は、低解像度コンピュータビジョンにおいて重要な課題であり、低解像度画像から高解像度画像を再構成することを目的としている。
従来の注意機構はsisrの性能を著しく向上させたが、複雑なネットワーク構造と多くのパラメータを生じさせ、推論速度が遅く、モデルサイズが大きくなる。
この問題に対処するために、パラメータカウント、推論速度、画像品質のバランスをとる高効率なSISRモデルであるSwift Parameter-free Attention Network (SPAN)を提案する。
スパンは新しいパラメータフリーアテンション機構を採用しており、対称的なアクティベーション機能と残差接続を利用して高い帰属情報を高め、冗長な情報を抑制する。
本理論解析は,注意機構の目的を達成する上で,この設計の有効性を示す。
複数のベンチマークでSPANを評価し、画像品質と推論速度の両面で既存の高効率超解像モデルより優れており、品質と速度のトレードオフが著しく達成されていることを示す。
これにより、SPANは現実世界のアプリケーション、特にリソース制約のあるシナリオに非常に適しています。
特に、我々のモデルは27.09dBの最高のPSNRに達し、NTIRE 2023の効率的な超解像チャレンジにおいて、我々のチームのテストランタイムは7.08ms削減される。
私たちのコードとモデルは、 \url{https://github.com/hongyuanyu/SPAN}で公開されています。
関連論文リスト
- Large Kernel Distillation Network for Efficient Single Image Super-Resolution [8.094254341695684]
近年,シングルイメージ超解像 (SISR) が注目されている。
現在のSOTA(State-of-the-art)モデルは高い計算コストなどの問題に直面している。
本稿では,LKDN(Large Kernel Distillation Network)を提案する。
論文 参考訳(メタデータ) (2024-07-19T14:21:56Z) - Incorporating Transformer Designs into Convolutions for Lightweight
Image Super-Resolution [46.32359056424278]
大規模な畳み込みカーネルは畳み込みニューラルネットワークの設計に人気がある。
カーネルのサイズが大きくなるとパラメータの数が2倍に増加し、計算量やメモリの要求も大きくなる。
本稿では,自己注意機構を付加した標準畳み込みを改良した近傍注意モジュールを提案する。
NAモジュールをベースとして,TSRと呼ばれる軽量単一画像超解像(SISR)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-25T01:32:18Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - Efficient Image Super-Resolution using Vast-Receptive-Field Attention [49.87316814164699]
注意機構は、高度な超解像(SR)ネットワークの設計において重要な役割を果たす。
本研究では,アテンション機構の改善により,効率的なSRネットワークを設計する。
VAst-receptive-field Pixel attention networkであるVapSRを提案する。
論文 参考訳(メタデータ) (2022-10-12T07:01:00Z) - Fourier Space Losses for Efficient Perceptual Image Super-Resolution [131.50099891772598]
提案した損失関数の適用のみで,最近導入された効率的なジェネレータアーキテクチャの性能向上が可能であることを示す。
フーリエ空間における周波数に対する損失の直接的強調は知覚的画質を著しく向上させることを示す。
訓練されたジェネレータは、最先端の知覚的SR法である RankSRGAN と SRFlow よりも2.4倍、48倍高速である。
論文 参考訳(メタデータ) (2021-06-01T20:34:52Z) - Asymmetric CNN for image super-resolution [102.96131810686231]
深層畳み込みニューラルネットワーク(CNN)は、過去5年間で低レベルビジョンに広く適用されています。
画像超解像のための非対称ブロック(AB)、mem?ory拡張ブロック(MEB)、高周波数特徴強調ブロック(HFFEB)からなる非対称CNN(ACNet)を提案する。
我々のACNetは、ブラインドノイズの単一画像超解像(SISR)、ブラインドSISR、ブラインドSISRを効果的に処理できる。
論文 参考訳(メタデータ) (2021-03-25T07:10:46Z) - Lightweight Image Super-Resolution with Multi-scale Feature Interaction
Network [15.846394239848959]
軽量マルチスケール機能インタラクションネットワーク(MSFIN)を提案する。
軽量SISRでは、MSFINは受容野を拡張し、低解像度の観測画像の情報的特徴を適切に活用する。
提案したMSFINは,より軽量なモデルで最先端技術に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2021-03-24T07:25:21Z) - Fully Quantized Image Super-Resolution Networks [81.75002888152159]
効率と精度を両立させるためのフル量子化画像超解像フレームワーク(FQSR)を提案する。
我々は、SRResNet、SRGAN、EDSRを含む複数の主流超解像アーキテクチャに量子化スキームを適用した。
低ビット量子化を用いたFQSRは、5つのベンチマークデータセットの完全精度と比較すると、パー性能で実現できる。
論文 参考訳(メタデータ) (2020-11-29T03:53:49Z) - Journey Towards Tiny Perceptual Super-Resolution [23.30464519074935]
本研究では,NASとGANを統合したニューラルアーキテクチャサーチ(NAS)手法を提案する。
我々の小さな知覚的SR(TPSR)モデルは、全参照知覚量(LPIPS)と歪み量(PSNR)の両方でSRGANとEnhanceNetを上回ります。
論文 参考訳(メタデータ) (2020-07-08T18:24:40Z) - Toward fast and accurate human pose estimation via soft-gated skip
connections [97.06882200076096]
本稿では,高精度かつ高効率な人間のポーズ推定について述べる。
我々は、最先端技術よりも精度と効率を両立させる文脈において、この設計選択を再分析する。
本モデルでは,MPII と LSP のデータセットから最先端の結果が得られる。
論文 参考訳(メタデータ) (2020-02-25T18:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。