論文の概要: Crafting Query-Aware Selective Attention for Single Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2504.06634v1
- Date: Wed, 09 Apr 2025 07:17:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:06:24.857825
- Title: Crafting Query-Aware Selective Attention for Single Image Super-Resolution
- Title(参考訳): 単一画像超解像に対する問合せ型選択注意法の開発
- Authors: Junyoung Kim, Youngrok Kim, Siyeol Jung, Donghyun Min,
- Abstract要約: SISR(Single Image Super-Resolution)は、低解像度の入力から高解像度の画像を再構成し、画像の詳細を向上する。
本稿では,クエリの類似性に基づいて,最も関連性の高いキー値ウィンドウを動的に選択するSSCANを提案する。
実験の結果、SSCANは既存のアテンションベースSISR法よりも優れており、都市データセットの最大0.14dBPSNR改善を実現していることがわかった。
- 参考スコア(独自算出の注目度): 3.133812520659661
- License:
- Abstract: Single Image Super-Resolution (SISR) reconstructs high-resolution images from low-resolution inputs, enhancing image details. While Vision Transformer (ViT)-based models improve SISR by capturing long-range dependencies, they suffer from quadratic computational costs or employ selective attention mechanisms that do not explicitly focus on query-relevant regions. Despite these advancements, prior work has overlooked how selective attention mechanisms should be effectively designed for SISR. We propose SSCAN, which dynamically selects the most relevant key-value windows based on query similarity, ensuring focused feature extraction while maintaining efficiency. In contrast to prior approaches that apply attention globally or heuristically, our method introduces a query-aware window selection strategy that better aligns attention computation with important image regions. By incorporating fixed-sized windows, SSCAN reduces memory usage and enforces linear token-to-token complexity, making it scalable for large images. Our experiments demonstrate that SSCAN outperforms existing attention-based SISR methods, achieving up to 0.14 dB PSNR improvement on urban datasets, guaranteeing both computational efficiency and reconstruction quality in SISR.
- Abstract(参考訳): SISR(Single Image Super-Resolution)は、低解像度の入力から高解像度の画像を再構成し、画像の詳細を向上する。
Vision Transformer (ViT) ベースのモデルは、長距離依存をキャプチャすることでSISRを改善するが、2次計算コストに悩まされるか、クエリ関連領域に明示的に焦点を絞らない選択的な注意機構を使用する。
これらの進歩にもかかわらず、以前の研究はSISRのために選択的な注意機構が効果的に設計されるべきかどうかを見落としていた。
本稿では,クエリの類似性に基づいてキー値ウィンドウを動的に選択するSSCANを提案する。
注意をグローバルに、あるいはヒューリスティックに適用する従来のアプローチとは対照的に、本手法では、注意計算と重要な画像領域との整合性を向上する、問合せ対応のウィンドウ選択戦略を導入している。
固定サイズのウィンドウを組み込むことで、SSCANはメモリ使用量を削減し、線形トークン・ツー・トークンの複雑さを強制する。
実験の結果,SSCAN は既存の SISR 手法よりも優れており,都市データセット上で最大 0.14 dB PSNR の改善を実現し,SISR の計算効率と復元品質の両面を保証している。
関連論文リスト
- Efficient Attention-Sharing Information Distillation Transformer for Lightweight Single Image Super-Resolution [23.265907475054156]
Transformer-based Super-Resolution (SR) 法は畳み込みニューラルネットワーク (CNN) 法に比べて優れた性能を示した。
本稿では,トランスフォーマーを用いたSR方式に特化して設計された,アテンション共有と情報蒸留構造を統合した軽量SRネットワークを提案する。
論文 参考訳(メタデータ) (2025-01-27T04:46:58Z) - Efficient Visual State Space Model for Image Deblurring [83.57239834238035]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、画像復元において優れた性能を発揮している。
本稿では,画像のデブロアに対する簡易かつ効果的な視覚状態空間モデル(EVSSM)を提案する。
論文 参考訳(メタデータ) (2024-05-23T09:13:36Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Swift Parameter-free Attention Network for Efficient Super-Resolution [8.365929625909509]
シングルイメージ超解像は、低レベルのコンピュータビジョンにおいて重要な課題である。
Swiftを提案します。
パラメータカウント、推論速度、画像品質のバランスをとるパラメータフリーアテンションネットワーク(SPAN)。
複数のベンチマークでSPANを評価し,画像品質と推論速度の両面で既存の高効率超解像モデルより優れていることを示した。
論文 参考訳(メタデータ) (2023-11-21T18:30:40Z) - ESSAformer: Efficient Transformer for Hyperspectral Image
Super-resolution [76.7408734079706]
単一ハイパースペクトル像超解像(単一HSI-SR)は、低分解能観測から高分解能ハイパースペクトル像を復元することを目的としている。
本稿では,1つのHSI-SRの繰り返し精製構造を持つESSA注目組込みトランスフォーマネットワークであるESSAformerを提案する。
論文 参考訳(メタデータ) (2023-07-26T07:45:14Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - ESTISR: Adapting Efficient Scene Text Image Super-resolution for
Real-Scenes [25.04435367653037]
シーンテキスト画像超解像(STISR)は、シーンテキストの正確な認識において顕著な改善をもたらした。
本稿では,資源限定配置プラットフォームのための高効率Scene Text Image Super- resolution (ESTISR) ネットワークを提案する。
ESTISRは、実際の実行時間とピークメモリ消費の点で、現在のメソッドよりも一貫して優れています。
論文 参考訳(メタデータ) (2023-06-04T19:14:44Z) - CiaoSR: Continuous Implicit Attention-in-Attention Network for
Arbitrary-Scale Image Super-Resolution [158.2282163651066]
本稿ではCiaoSRと呼ばれる連続的な暗黙の注意-注意ネットワークを提案する。
我々は、周辺地域の特徴のアンサンブル重みを学習するために、暗黙の注意ネットワークを明示的に設計する。
我々は、この暗黙の注意ネットワークにスケールアウェアの注意を埋め込んで、追加の非ローカル情報を活用する。
論文 参考訳(メタデータ) (2022-12-08T15:57:46Z) - Hierarchical Similarity Learning for Aliasing Suppression Image
Super-Resolution [64.15915577164894]
エイリアスの影響を抑制するために階層画像超解像ネットワーク(HSRNet)を提案する。
HSRNetは、他の作品よりも定量的かつ視覚的なパフォーマンスを向上し、エイリアスをより効果的に再送信する。
論文 参考訳(メタデータ) (2022-06-07T14:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。