論文の概要: RASR: Retrieval-Augmented Super Resolution for Practical Reference-based Image Restoration
- arxiv url: http://arxiv.org/abs/2508.09449v1
- Date: Wed, 13 Aug 2025 03:05:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.73438
- Title: RASR: Retrieval-Augmented Super Resolution for Practical Reference-based Image Restoration
- Title(参考訳): RASR:Retrieval-Augmented Super resolution for Practical Reference-based Image Restoration
- Authors: Jiaqi Yan, Shuning Xu, Xiangyu Chen, Dell Zhang, Jie Tang, Gangshan Wu, Jie Liu,
- Abstract要約: RefSRは、高品質な参照画像を活用して、テクスチャの忠実さと視覚リアリズムを高めることで、Single Image Super Resolution (SISR)を改善している。
既存のRefSRアプローチは、手動でキュレートされたターゲット参照イメージペアに依存している。
Retrieval-Augmented Super Resolution (RASR) は参照データベースから意味論的に関連する高解像度画像を自動的に抽出する新しい実用的なRefSRパラダイムである。
- 参考スコア(独自算出の注目度): 41.50858324338511
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reference-based Super Resolution (RefSR) improves upon Single Image Super Resolution (SISR) by leveraging high-quality reference images to enhance texture fidelity and visual realism. However, a critical limitation of existing RefSR approaches is their reliance on manually curated target-reference image pairs, which severely constrains their practicality in real-world scenarios. To overcome this, we introduce Retrieval-Augmented Super Resolution (RASR), a new and practical RefSR paradigm that automatically retrieves semantically relevant high-resolution images from a reference database given only a low-quality input. This enables scalable and flexible RefSR in realistic use cases, such as enhancing mobile photos taken in environments like zoos or museums, where category-specific reference data (e.g., animals, artworks) can be readily collected or pre-curated. To facilitate research in this direction, we construct RASR-Flickr30, the first benchmark dataset designed for RASR. Unlike prior datasets with fixed target-reference pairs, RASR-Flickr30 provides per-category reference databases to support open-world retrieval. We further propose RASRNet, a strong baseline that combines a semantic reference retriever with a diffusion-based RefSR generator. It retrieves relevant references based on semantic similarity and employs a diffusion-based generator enhanced with semantic conditioning. Experiments on RASR-Flickr30 demonstrate that RASRNet consistently improves over SISR baselines, achieving +0.38 dB PSNR and -0.0131 LPIPS, while generating more realistic textures. These findings highlight retrieval augmentation as a promising direction to bridge the gap between academic RefSR research and real-world applicability.
- Abstract(参考訳): 参照ベーススーパーレゾリューション(RefSR)は、高品質な参照画像を活用して、テクスチャの忠実度と視覚リアリズムを高めることにより、シングルイメージスーパーレゾリューション(SISR)を改善する。
しかし、既存のRefSRアプローチの重要な制限は、手動でキュレートされたターゲット参照イメージペアに依存しており、現実のシナリオにおける彼らの実践性を厳しく制限している。
これを解決するために、低品質の入力のみを与えられた参照データベースから意味論的に関連する高解像度画像を自動的に抽出する新しい実用的なRefSRパラダイムであるRetrieval-Augmented Super Resolution (RASR)を導入する。
これにより、動物園や博物館などの環境下で撮影されたモバイル写真(例えば、動物やアートワークなど)を簡単に収集したり、事前計算したりといった、現実的なユースケースにおいて、スケーラブルで柔軟なRefSRを実現することができる。
この方向の研究を容易にするため、RASR用に設計された最初のベンチマークデータセットであるRASR-Flickr30を構築した。
固定されたターゲット参照ペアを持つ以前のデータセットとは異なり、RASR-Flickr30は、オープンワールド検索をサポートするためにカテゴリごとの参照データベースを提供する。
さらに,感性参照レトリバーと拡散型RefSRジェネレータを組み合わせた強力なベースラインであるRASRNetを提案する。
セマンティックな類似性に基づいて関連する参照を検索し、セマンティックな条件付けで拡張された拡散ベースのジェネレータを使用する。
RASR-Flickr30の実験では、RASRNetはSISRベースラインを継続的に改善し、+0.38 dB PSNRと-0.0131 LPIPSを達成した。
これらの知見は,学術的RefSR研究と実世界の応用可能性とのギャップを埋める上で有望な方向として,検索の強化を強調した。
関連論文リスト
- Controllable Reference-Based Real-World Remote Sensing Image Super-Resolution with Generative Diffusion Priors [13.148815217684277]
超高分解能(SR)技術は、低分解能(LR)画像を用いて高分解能(HR)画像を再構成することにより、リモートセンシング画像の空間分解能を高めることができる。
既存のRefSR手法は、クロスセンサーの解像度ギャップや重要な土地被覆の変化など、現実世界の複雑さに苦しむ。
実世界のリモートセンシング画像SRのための新しい制御可能な参照ベース拡散モデルであるCRefDiffを提案する。
論文 参考訳(メタデータ) (2025-06-30T12:45:28Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - A Feature Reuse Framework with Texture-adaptive Aggregation for
Reference-based Super-Resolution [29.57364804554312]
参照ベース超解像(RefSR)は超解像の分野で大きな成功を収めている。
本稿では,ステップバイステップのテクスチャ再構築プロセスをガイドする機能再利用フレームワークを提案する。
単一画像特徴埋め込みモジュールとテクスチャ適応アグリゲーションモジュールを導入する。
論文 参考訳(メタデータ) (2023-06-02T12:49:22Z) - RRSR:Reciprocal Reference-based Image Super-Resolution with Progressive
Feature Alignment and Selection [66.08293086254851]
本稿では,RefSRネットワークの学習を強化するための相互学習フレームワークを提案する。
新たに提案したモジュールは,マルチスケールの特徴空間に参照入力画像をアライメントし,参照認識機能の選択を行う。
我々は,最近のRefSRモデルが相互学習パラダイムによって一貫した改善が可能であることを実証的に示す。
論文 参考訳(メタデータ) (2022-11-08T12:39:35Z) - RZSR: Reference-based Zero-Shot Super-Resolution with Depth Guided
Self-Exemplars [20.771851470271777]
低分解能(LR)画像から高分解能(HR)画像を生成する上で,SISRは優れた性能を示した。
参照ベースゼロショットSR(RZSR)と呼ばれる統合解を提案する。
論文 参考訳(メタデータ) (2022-08-24T05:48:17Z) - Reference-based Image Super-Resolution with Deformable Attention
Transformer [62.71769634254654]
RefSRは、補助参照(Ref)画像を超解像低解像度(LR)画像に活用することを目的としている。
本稿では,複数のスケールを持つ変形可能なアテンション変換器,すなわちDATSRを提案する。
DATSRがベンチマークデータセット上で最先端のパフォーマンスを達成することを示す実験を行った。
論文 参考訳(メタデータ) (2022-07-25T07:07:00Z) - MASA-SR: Matching Acceleration and Spatial Adaptation for
Reference-Based Image Super-Resolution [74.24676600271253]
本稿では、RefSRのためのMASAネットワークを提案し、これらの問題に対処するために2つの新しいモジュールを設計する。
提案したMatch & extract Moduleは、粗大な対応マッチング方式により計算コストを大幅に削減する。
空間適応モジュールは、LR画像とRef画像の分布の差を学習し、Ref特徴の分布を空間適応的にLR特徴の分布に再マップする。
論文 参考訳(メタデータ) (2021-06-04T07:15:32Z) - Robust Reference-based Super-Resolution via C2-Matching [77.51610726936657]
超解像(Ref-SR)は、最近、高分解能(HR)参照画像を導入して、低分解能(LR)入力画像を強化するための有望なパラダイムとして登場した。
既存のRef-SR法は主に暗黙の対応に頼り、参照画像からHRテクスチャを借用し、入力画像の情報損失を補う。
本稿では,C2-Matchingを提案する。
論文 参考訳(メタデータ) (2021-06-03T16:40:36Z) - Real-World Single Image Super-Resolution: A Brief Review [44.14123585227239]
単一画像超解像(SISR)は、低解像(LR)観測から高解像(HR)画像を再構成することを目的とする。
深層学習に基づく超解像法が注目され,合成データの再構成性能が大幅に向上した。
論文 参考訳(メタデータ) (2021-03-03T12:41:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。