論文の概要: Incorporating Uncertainty-Guided and Top-k Codebook Matching for Real-World Blind Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2506.07809v1
- Date: Mon, 09 Jun 2025 14:37:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.998296
- Title: Incorporating Uncertainty-Guided and Top-k Codebook Matching for Real-World Blind Image Super-Resolution
- Title(参考訳): 実世界ブラインド画像スーパーリゾリューションのための不確かさガイドとトップkコードブックマッチング
- Authors: Weilei Wen, Tianyi Zhang, Qianqian Zhao, Zhaohui Zheng, Chunle Guo, Xiuli Shao, Chongyi Li,
- Abstract要約: Codebookベースのリアルイメージ超解像(SR)は、実世界のアプリケーションで有望な結果を示している。
既存のメソッドでは、コードブックと不正確な機能マッチングと、テクスチャの詳細な再構築という、2つの大きな課題に直面している。
本稿では,3つのキーコンポーネントを組み込んだ新しいUncertainty-Guided and Top-k Codebook Matching SRフレームワークを提案する。
- 参考スコア(独自算出の注目度): 36.692648646633685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in codebook-based real image super-resolution (SR) have shown promising results in real-world applications. The core idea involves matching high-quality image features from a codebook based on low-resolution (LR) image features. However, existing methods face two major challenges: inaccurate feature matching with the codebook and poor texture detail reconstruction. To address these issues, we propose a novel Uncertainty-Guided and Top-k Codebook Matching SR (UGTSR) framework, which incorporates three key components: (1) an uncertainty learning mechanism that guides the model to focus on texture-rich regions, (2) a Top-k feature matching strategy that enhances feature matching accuracy by fusing multiple candidate features, and (3) an Align-Attention module that enhances the alignment of information between LR and HR features. Experimental results demonstrate significant improvements in texture realism and reconstruction fidelity compared to existing methods. We will release the code upon formal publication.
- Abstract(参考訳): コードブックベースの実画像超解像(SR)の最近の進歩は、現実の応用において有望な結果を示している。
コアとなる考え方は、低解像度(LR)画像の特徴に基づいて、コードブックから高品質な画像特徴をマッチングすることである。
しかし、既存の手法では、コードブックと不正確な特徴マッチングとテクスチャの詳細な再構築という2つの大きな課題に直面している。
これらの課題に対処するため,(1)テクスチャに富む領域にモデルを誘導する不確実性学習機構,(2)複数の特徴を融合させて特徴マッチングの精度を高めるTop-k特徴マッチング戦略,(3)LRとHRの特徴間の情報の整合性を高めるアライン・アテンション・モジュールの3つの主要なコンポーネントを組み込んだ,新しいUncertainty-Guided and Top-k Codebook Matching SR(UGTSR)フレームワークを提案する。
実験結果から, テクスチャリアリズムと再現忠実度は既存手法に比べて有意に向上した。
公式発表の時にコードを公開します。
関連論文リスト
- Enhancing License Plate Super-Resolution: A Layout-Aware and Character-Driven Approach [2.9628782269544685]
本稿では, LPRタスク自体の性能だけでなく, 解像度, テクスチャ, 構造的詳細などの要因を考慮した新しい損失関数Layout and Character Oriented Focal Loss(LCOFL)を提案する。
我々は、変形可能な畳み込みと共有重み付けを用いた文字特徴学習を強化し、識別器として光学文字認識(OCR)モデルを用いたGANベースのトレーニングアプローチを採用する。
実験の結果, 文字再構成の精度は向上し, 定量化と定性化の両面で, 最先端の2つの手法に優れていた。
論文 参考訳(メタデータ) (2024-08-27T14:40:19Z) - ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - CoSeR: Bridging Image and Language for Cognitive Super-Resolution [74.24752388179992]
本稿では,低解像度画像の理解能力を備えたSRモデルを実現するCoSeR(Cognitive Super-Resolution)フレームワークを提案する。
画像の外観と言語理解を組み合わせることで、認知的な埋め込みを生成する。
画像の忠実度をさらに向上させるため、「オール・イン・アテンション」と呼ばれる新しい条件注入方式を提案する。
論文 参考訳(メタデータ) (2023-11-27T16:33:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。