論文の概要: Single Image Super-Resolution Using Lightweight Networks Based on Swin
Transformer
- arxiv url: http://arxiv.org/abs/2210.11019v1
- Date: Thu, 20 Oct 2022 05:03:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 15:44:01.101366
- Title: Single Image Super-Resolution Using Lightweight Networks Based on Swin
Transformer
- Title(参考訳): スウィントランスを用いた軽量ネットワークを用いた単一画像超解像
- Authors: Bolong Zhang and Juan Chen and Quan Wen
- Abstract要約: 我々は、Swin Transformerに基づくMSwinSRとUGSwinSRという2つの軽量モデルを提案する。
MSwinSRは、最先端のSwinIRと比較してPSNRを$mathbf0.07dB$で増加させる。
パラメータの数は$mathbf30.68%$で、計算コストは$mathbf9.936%$で削減できる。
- 参考スコア(独自算出の注目度): 2.9649783577150837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image super-resolution reconstruction is an important task in the field of
image processing technology, which can restore low resolution image to high
quality image with high resolution. In recent years, deep learning has been
applied in the field of image super-resolution reconstruction. With the
continuous development of deep neural network, the quality of the reconstructed
images has been greatly improved, but the model complexity has also been
increased. In this paper, we propose two lightweight models named as MSwinSR
and UGSwinSR based on Swin Transformer. The most important structure in MSwinSR
is called Multi-size Swin Transformer Block (MSTB), which mainly contains four
parallel multi-head self-attention (MSA) blocks. UGSwinSR combines U-Net and
GAN with Swin Transformer. Both of them can reduce the model complexity, but
MSwinSR can reach a higher objective quality, while UGSwinSR can reach a higher
perceptual quality. The experimental results demonstrate that MSwinSR increases
PSNR by $\mathbf{0.07dB}$ compared with the state-of-the-art model SwinIR,
while the number of parameters can reduced by $\mathbf{30.68\%}$, and the
calculation cost can reduced by $\mathbf{9.936\%}$. UGSwinSR can effectively
reduce the amount of calculation of the network, which can reduced by
$\mathbf{90.92\%}$ compared with SwinIR.
- Abstract(参考訳): 画像超解像再構成は画像処理技術において重要な課題であり、低解像度画像を高解像度で高画質画像に復元することができる。
近年,画像超解像再構成の分野ではディープラーニングが応用されている。
ディープニューラルネットワークの継続的な発展により、再構成画像の品質は大幅に向上したが、モデルの複雑さも増大した。
本稿では,Swin Transformerに基づくMSwinSRとUGSwinSRという2つの軽量モデルを提案する。
mswinsrの最も重要な構造はマルチサイズスウィントランスブロック(mstb)と呼ばれ、主に4つの並列マルチヘッドセルフアテンション(msa)ブロックを含んでいる。
UGSwinSRはU-NetとGANをSwin Transformerと組み合わせている。
どちらもモデルの複雑さを減らすことができるが、MSwinSRはより高い客観的な品質に到達でき、UGSwinSRは高い知覚的品質に達する。
実験の結果、MSwinSRは最先端のSwinIRと比較してPSNRを$\mathbf{0.07dB}$で増加させ、パラメータの数は$\mathbf{30.68\%}$で減少し、計算コストは$\mathbf{9.936\%}$で減少することを示した。
UGSwinSRはネットワークの計算量を効果的に削減し、SwinIRと比較して$\mathbf{90.92\%}$に削減することができる。
関連論文リスト
- Efficient Model Agnostic Approach for Implicit Neural Representation
Based Arbitrary-Scale Image Super-Resolution [5.704360536038803]
単一の画像超解像(SISR)は、主に深層畳み込みネットワークによって大きく進歩した。
従来のネットワークは、画像を一定のスケールにスケールアップすることに限定されており、任意のスケールのイメージを生成するために暗黙の神経機能を利用することになる。
我々は,任意のスケールで超解像を実現する,新しい,効率的なフレームワークであるMixture of Experts Implicit Super-Resolution(MoEISR)を導入する。
論文 参考訳(メタデータ) (2023-11-20T05:34:36Z) - PTSR: Patch Translator for Image Super-Resolution [16.243363392717434]
画像超解像(PTSR)のためのパッチトランスレータを提案し,この問題に対処する。
提案するPTSRは、畳み込み動作のないトランスフォーマーベースGANネットワークである。
マルチヘッドアテンションを利用した改良パッチを再生するための新しいパッチトランスレータモジュールを提案する。
論文 参考訳(メタデータ) (2023-10-20T01:45:00Z) - Lightweight Bimodal Network for Single-Image Super-Resolution via
Symmetric CNN and Recursive Transformer [27.51790638626891]
シングルイメージ・スーパーレゾリューション(SISR)は、ディープラーニングの開発において大きなブレークスルーを達成している。
そこで本研究では,SISRのための軽量バイモーダルネットワーク(LBNet)を提案する。
具体的には,局所特徴抽出と粗い画像再構成に有効なシンメトリCNNを設計する。
論文 参考訳(メタデータ) (2022-04-28T04:43:22Z) - BSRT: Improving Burst Super-Resolution with Swin Transformer and
Flow-Guided Deformable Alignment [84.82352123245488]
この研究は新しいアーキテクチャを使ってBurst Super-Resolution (BurstSR)タスクに対処し、ノイズ、不一致、低解像度のRAWバーストから高品質な画像を復元する必要がある。
本稿では,フレーム間情報抽出と再構築の能力を大幅に向上するBurst Super-Resolution Transformer (BSRT)を提案する。
我々のBSRTはNTIRE2022 Burst Super-Resolution Challengeで優勝した。
論文 参考訳(メタデータ) (2022-04-18T14:23:10Z) - Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution [64.54162195322246]
畳み込みニューラルネットワーク(CNN)は画像超解像(SR)において大きな成功を収めた
ほとんどのディープCNNベースのSRモデルは、高い性能を得るために大量の計算を処理している。
SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することで,HPUN(Hybrid Pixel-Unshuffled Network)を提案する。
論文 参考訳(メタデータ) (2022-03-16T20:10:41Z) - Restormer: Efficient Transformer for High-Resolution Image Restoration [118.9617735769827]
畳み込みニューラルネットワーク(CNN)は、大規模データから一般化可能な画像の事前学習をうまく行う。
トランスフォーマーは、自然言語とハイレベルな視覚タスクにおいて、顕著なパフォーマンス向上を示している。
我々のモデルであるRecovery Transformer (Restormer) は、いくつかの画像復元タスクにおいて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-11-18T18:59:10Z) - SwinIR: Image Restoration Using Swin Transformer [124.8794221439392]
本研究では,Swin Transformerに基づく画像復元のための強力なベースラインモデルSwinIRを提案する。
SwinIRは、浅い特徴抽出、深い特徴抽出、高品質の画像再構成の3つの部分で構成されている。
画像超解像、画像デノイング、JPEG圧縮アーティファクト削減の3つの代表的なタスクについて実験を行った。
論文 参考訳(メタデータ) (2021-08-23T15:55:32Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - FAN: Frequency Aggregation Network for Real Image Super-resolution [33.30542701042704]
単一画像超解像(SISR)は、低解像度(LR)入力画像から高解像度(HR)画像を復元することを目的としている。
実世界の超可溶化問題に対処するために,周波数集約ネットワークであるFANを提案する。
論文 参考訳(メタデータ) (2020-09-30T10:18:41Z) - Lightweight image super-resolution with enhanced CNN [82.36883027158308]
強い表現力を持つ深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像(SISR)において印象的な性能を達成した
情報抽出・拡張ブロック(IEEB)、再構築ブロック(RB)、情報精製ブロック(IRB)の3つの連続したサブブロックを持つ軽量拡張SR CNN(LESRCNN)を提案する。
IEEBは階層的低分解能(LR)特徴を抽出し、SISRの深い層上の浅い層の記憶能力を高めるために、得られた特徴を段階的に集約する。
RBはグローバルに拡散することで低周波特徴を高周波特徴に変換する
論文 参考訳(メタデータ) (2020-07-08T18:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。