論文の概要: N-Gram in Swin Transformers for Efficient Lightweight Image
Super-Resolution
- arxiv url: http://arxiv.org/abs/2211.11436v1
- Date: Mon, 21 Nov 2022 13:23:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 21:19:07.085696
- Title: N-Gram in Swin Transformers for Efficient Lightweight Image
Super-Resolution
- Title(参考訳): 高速軽量画像超解像のためのスイム変圧器のN-Gram
- Authors: Haram Choi, Jeongmin Lee and Jihoon Yang
- Abstract要約: 歴史上初めて画像領域にN-Gramコンテキストを導入する。
階層エンコーダの出力を全て取り込むSCDPボトルネックを持つ効率的なSRネットワークであるNGswinを提案する。
改良されたSwinIR-NGは、現在の最高の軽量SRアプローチよりも優れ、最先端の結果を確立します。
- 参考スコア(独自算出の注目度): 1.4502611532302039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While some studies have proven that Swin Transformer (SwinT) with window
self-attention (WSA) is suitable for single image super-resolution (SR), SwinT
ignores the broad regions for reconstructing high-resolution images due to
window and shift size. In addition, many deep learning SR methods suffer from
intensive computations. To address these problems, we introduce the N-Gram
context to the image domain for the first time in history. We define N-Gram as
neighboring local windows in SwinT, which differs from text analysis that views
N-Gram as consecutive characters or words. N-Grams interact with each other by
sliding-WSA, expanding the regions seen to restore degraded pixels. Using the
N-Gram context, we propose NGswin, an efficient SR network with SCDP bottleneck
taking all outputs of the hierarchical encoder. Experimental results show that
NGswin achieves competitive performance while keeping an efficient structure,
compared with previous leading methods. Moreover, we also improve other
SwinT-based SR methods with the N-Gram context, thereby building an enhanced
model: SwinIR-NG. Our improved SwinIR-NG outperforms the current best
lightweight SR approaches and establishes state-of-the-art results. Codes will
be available soon.
- Abstract(参考訳): ウィンドウ自己アテンション(WSA)を持つSwin Transformer(SwinT)が単一画像超解像(SR)に適していることを示す研究もあるが、SwinTはウィンドウとシフトサイズによる高解像度画像の再構成には広い領域を無視している。
さらに、多くのディープラーニングsr手法は集中的な計算に苦しむ。
これらの問題に対処するため,N-Gramコンテキストを画像領域に導入した。
我々はN-GramをSwinTの隣接するローカルウィンドウと定義し、N-Gramを連続した文字や単語とみなすテキスト解析とは異なる。
N-GramはスライドWSAによって相互作用し、劣化したピクセルを復元する領域を広げる。
N-Gramコンテキストを用いて、SCDPボトルネックを持つ効率的なSRネットワークであるNGswinを提案し、階層エンコーダの出力を全て取り込む。
実験結果から,NGswinは従来の先行手法と比較して,効率的な構造を維持しつつ,競争性能を達成することが示された。
さらに、N-Gramコンテキストで他のSwinTベースのSR手法を改善し、SwinIR-NGという拡張モデルを構築する。
改良されたSwinIR-NGは、現在の最高の軽量SRアプローチよりも優れ、最先端の結果を確立する。
コードはもうすぐ入手できる。
関連論文リスト
- HiT-SR: Hierarchical Transformer for Efficient Image Super-Resolution [70.52256118833583]
変換器ベースSRネットワークを階層変換器(HiT-SR)に変換する戦略を提案する。
具体的には、一般的に使われている固定された小さなウィンドウを階層的なウィンドウに置き換えて、異なるスケールで機能を集約する。
大規模なウィンドウに必要となる計算量を考慮すると、窓の大きさに線形な複雑性を持つ空間チャネル相関法をさらに設計する。
論文 参考訳(メタデータ) (2024-07-08T12:42:10Z) - ELGC-Net: Efficient Local-Global Context Aggregation for Remote Sensing Change Detection [65.59969454655996]
本稿では,変化領域を正確に推定するために,リッチな文脈情報を利用する効率的な変化検出フレームワークELGC-Netを提案する。
提案するELGC-Netは、リモートセンシング変更検出ベンチマークにおいて、最先端の性能を新たに設定する。
また,ELGC-Net-LWも導入した。
論文 参考訳(メタデータ) (2024-03-26T17:46:25Z) - Incorporating Transformer Designs into Convolutions for Lightweight
Image Super-Resolution [46.32359056424278]
大規模な畳み込みカーネルは畳み込みニューラルネットワークの設計に人気がある。
カーネルのサイズが大きくなるとパラメータの数が2倍に増加し、計算量やメモリの要求も大きくなる。
本稿では,自己注意機構を付加した標準畳み込みを改良した近傍注意モジュールを提案する。
NAモジュールをベースとして,TSRと呼ばれる軽量単一画像超解像(SISR)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-25T01:32:18Z) - Single Image Super-Resolution Using Lightweight Networks Based on Swin
Transformer [2.9649783577150837]
我々は、Swin Transformerに基づくMSwinSRとUGSwinSRという2つの軽量モデルを提案する。
MSwinSRは、最先端のSwinIRと比較してPSNRを$mathbf0.07dB$で増加させる。
パラメータの数は$mathbf30.68%$で、計算コストは$mathbf9.936%$で削減できる。
論文 参考訳(メタデータ) (2022-10-20T05:03:16Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - CADyQ: Content-Aware Dynamic Quantization for Image Super-Resolution [55.50793823060282]
本稿では,画像超解像(SR)ネットワークのための新しいコンテント・アウェア・ダイナミック量子化(CADyQ)手法を提案する。
CADyQは、入力画像のローカル内容に基づいて、局所領域と層に最適なビットを適応的に割り当てる。
パイプラインは様々なSRネットワークでテストされ、いくつかの標準ベンチマークで評価されている。
論文 参考訳(メタデータ) (2022-07-21T07:50:50Z) - Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution [64.54162195322246]
畳み込みニューラルネットワーク(CNN)は画像超解像(SR)において大きな成功を収めた
ほとんどのディープCNNベースのSRモデルは、高い性能を得るために大量の計算を処理している。
SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することで,HPUN(Hybrid Pixel-Unshuffled Network)を提案する。
論文 参考訳(メタデータ) (2022-03-16T20:10:41Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。