論文の概要: SRFormer: Permuted Self-Attention for Single Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2303.09735v1
- Date: Fri, 17 Mar 2023 02:38:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 15:50:05.098568
- Title: SRFormer: Permuted Self-Attention for Single Image Super-Resolution
- Title(参考訳): SRFormer: 単一画像の超解像のための可変自己認識
- Authors: Yupeng Zhou, Zhen Li, Chun-Le Guo, Song Bai, Ming-Ming Cheng, Qibin
Hou
- Abstract要約: 以前の研究では、Transformerベースの画像超解像モデル(例えばSwinIR)のウィンドウサイズを増大させることで、モデルの性能は大幅に向上するが、計算オーバーヘッドもかなり大きいことが示されている。
SRFormerは、大きなウィンドウ自己注意の利点を享受できるが、計算負担がさらに少ない、単純だが斬新な方法である。
我々のPSAは単純で、ウィンドウの自己注意に基づいて既存の超解像ネットワークに容易に適用できる。
- 参考スコア(独自算出の注目度): 103.59735102924283
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Previous works have shown that increasing the window size for
Transformer-based image super-resolution models (e.g., SwinIR) can
significantly improve the model performance but the computation overhead is
also considerable. In this paper, we present SRFormer, a simple but novel
method that can enjoy the benefit of large window self-attention but introduces
even less computational burden. The core of our SRFormer is the permuted
self-attention (PSA), which strikes an appropriate balance between the channel
and spatial information for self-attention. Our PSA is simple and can be easily
applied to existing super-resolution networks based on window self-attention.
Without any bells and whistles, we show that our SRFormer achieves a 33.86dB
PSNR score on the Urban100 dataset, which is 0.46dB higher than that of SwinIR
but uses fewer parameters and computations. We hope our simple and effective
approach can serve as a useful tool for future research in super-resolution
model design.
- Abstract(参考訳): 以前の研究では、Transformerベースの画像超解像モデル(例えばSwinIR)のウィンドウサイズが大きくなることで、モデルの性能が大幅に向上することが示されたが、計算オーバーヘッドもかなり大きい。
本稿では,SRFormerを提案する。SRFormerは,大きなウィンドウ自己注意の利点を享受できるが,計算負担を低減できる簡易な手法である。
SRFormerのコアとなるのは、チャネルと空間情報の適切なバランスを保ちながら自己認識を行うpermuted self-attention (PSA)である。
我々のPSAは単純で、ウィンドウの自己注意に基づいて既存の超解像ネットワークに容易に適用できる。
我々のSRFormerは、SwinIRよりも0.46dB高いUrban100データセット上で33.86dBのPSNRスコアを達成しているが、パラメータや計算は少ない。
超高解像度モデル設計における今後の研究に役立つツールとして,我々のシンプルで効果的なアプローチが期待できる。
関連論文リスト
- Transforming Image Super-Resolution: A ConvFormer-based Efficient
Approach [63.98380888730723]
本稿では, Convolutional Transformer Layer (ConvFormer) と ConvFormer-based Super-Resolution Network (CFSR) を紹介する。
CFSRは、計算コストの少ない長距離依存と広範囲の受容場を効率的にモデル化する。
これは、x2 SRタスクのUrban100データセットで0.39dB、パラメータが26%、FLOPが31%減少している。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - SparseSpikformer: A Co-Design Framework for Token and Weight Pruning in
Spiking Transformer [12.717450255837178]
スパイキングニューラルネットワーク(SNN)は低消費電力と高エネルギー効率の利点がある。
最も先進的なSNNであるSpikformerは、Transformerの自己保持モジュールとSNNを組み合わせて、優れたパフォーマンスを実現している。
本稿では,SparseSpikformerについて紹介する。SparseSpikformerはトークンとウェイトプルーニング技術を用いてSparseSpikformerのスパーシ性を実現するための共同設計フレームワークである。
論文 参考訳(メタデータ) (2023-11-15T09:22:52Z) - Incorporating Transformer Designs into Convolutions for Lightweight
Image Super-Resolution [46.32359056424278]
大規模な畳み込みカーネルは畳み込みニューラルネットワークの設計に人気がある。
カーネルのサイズが大きくなるとパラメータの数が2倍に増加し、計算量やメモリの要求も大きくなる。
本稿では,自己注意機構を付加した標準畳み込みを改良した近傍注意モジュールを提案する。
NAモジュールをベースとして,TSRと呼ばれる軽量単一画像超解像(SISR)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-25T01:32:18Z) - Single Image Super-Resolution Using Lightweight Networks Based on Swin
Transformer [2.9649783577150837]
我々は、Swin Transformerに基づくMSwinSRとUGSwinSRという2つの軽量モデルを提案する。
MSwinSRは、最先端のSwinIRと比較してPSNRを$mathbf0.07dB$で増加させる。
パラメータの数は$mathbf30.68%$で、計算コストは$mathbf9.936%$で削減できる。
論文 参考訳(メタデータ) (2022-10-20T05:03:16Z) - Efficient Image Super-Resolution using Vast-Receptive-Field Attention [49.87316814164699]
注意機構は、高度な超解像(SR)ネットワークの設計において重要な役割を果たす。
本研究では,アテンション機構の改善により,効率的なSRネットワークを設計する。
VAst-receptive-field Pixel attention networkであるVapSRを提案する。
論文 参考訳(メタデータ) (2022-10-12T07:01:00Z) - ShuffleMixer: An Efficient ConvNet for Image Super-Resolution [88.86376017828773]
本稿では、大きな畳み込みとチャネル分割シャッフル操作を探索する軽量画像超解像のためのShuffleMixerを提案する。
具体的には,チャネル分割とシャッフルを基本成分とする2つのプロジェクション層を効率よく混合する。
実験結果から,ShuffleMixerはモデルパラメータやFLOPの手法に比べて約6倍小さいことがわかった。
論文 参考訳(メタデータ) (2022-05-30T15:26:52Z) - Enhancing sensor resolution improves CNN accuracy given the same number
of parameters or FLOPS [53.10151901863263]
パラメータ数やFLOPSが同じで、高い入力解像度で高い精度が得られるように、ネットワークを変更することは、ほぼ常に可能であることを示す。
MNIST、Fashion MNIST、CIFAR10データセットに関する予備的研究は、提案手法の効率性を実証している。
論文 参考訳(メタデータ) (2021-03-09T06:47:01Z) - Lightweight Single-Image Super-Resolution Network with Attentive
Auxiliary Feature Learning [73.75457731689858]
本稿では,SISR の注意補助機能 (A$2$F) に基づく計算効率が高く正確なネットワークを構築した。
大規模データセットを用いた実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-11-13T06:01:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。