論文の概要: Incorporating Uncertainty-Guided and Top-k Codebook Matching for Real-World Blind Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2506.07809v1
- Date: Mon, 09 Jun 2025 14:37:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.998296
- Title: Incorporating Uncertainty-Guided and Top-k Codebook Matching for Real-World Blind Image Super-Resolution
- Title(参考訳): 実世界ブラインド画像スーパーリゾリューションのための不確かさガイドとトップkコードブックマッチング
- Authors: Weilei Wen, Tianyi Zhang, Qianqian Zhao, Zhaohui Zheng, Chunle Guo, Xiuli Shao, Chongyi Li,
- Abstract要約: Codebookベースのリアルイメージ超解像(SR)は、実世界のアプリケーションで有望な結果を示している。
既存のメソッドでは、コードブックと不正確な機能マッチングと、テクスチャの詳細な再構築という、2つの大きな課題に直面している。
本稿では,3つのキーコンポーネントを組み込んだ新しいUncertainty-Guided and Top-k Codebook Matching SRフレームワークを提案する。
- 参考スコア(独自算出の注目度): 36.692648646633685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in codebook-based real image super-resolution (SR) have shown promising results in real-world applications. The core idea involves matching high-quality image features from a codebook based on low-resolution (LR) image features. However, existing methods face two major challenges: inaccurate feature matching with the codebook and poor texture detail reconstruction. To address these issues, we propose a novel Uncertainty-Guided and Top-k Codebook Matching SR (UGTSR) framework, which incorporates three key components: (1) an uncertainty learning mechanism that guides the model to focus on texture-rich regions, (2) a Top-k feature matching strategy that enhances feature matching accuracy by fusing multiple candidate features, and (3) an Align-Attention module that enhances the alignment of information between LR and HR features. Experimental results demonstrate significant improvements in texture realism and reconstruction fidelity compared to existing methods. We will release the code upon formal publication.
- Abstract(参考訳): コードブックベースの実画像超解像(SR)の最近の進歩は、現実の応用において有望な結果を示している。
コアとなる考え方は、低解像度(LR)画像の特徴に基づいて、コードブックから高品質な画像特徴をマッチングすることである。
しかし、既存の手法では、コードブックと不正確な特徴マッチングとテクスチャの詳細な再構築という2つの大きな課題に直面している。
これらの課題に対処するため,(1)テクスチャに富む領域にモデルを誘導する不確実性学習機構,(2)複数の特徴を融合させて特徴マッチングの精度を高めるTop-k特徴マッチング戦略,(3)LRとHRの特徴間の情報の整合性を高めるアライン・アテンション・モジュールの3つの主要なコンポーネントを組み込んだ,新しいUncertainty-Guided and Top-k Codebook Matching SR(UGTSR)フレームワークを提案する。
実験結果から, テクスチャリアリズムと再現忠実度は既存手法に比べて有意に向上した。
公式発表の時にコードを公開します。
関連論文リスト
- Dual Codebook VQ: Enhanced Image Reconstruction with Reduced Codebook Size [0.0]
ベクトル量子化(VQ)技術は、コードブック利用における課題に直面し、画像モデリングにおける再構成忠実度を制限する。
本稿では,表現を補完的なグローバルコンポーネントとローカルコンポーネントに分割することで,この制限を効果的に解決するDual Codebookメカニズムを提案する。
提案手法は,様々な画像領域,特にシーンや顔の再構成作業において優れたFID改善を実現する。
論文 参考訳(メタデータ) (2025-03-13T19:31:18Z) - Feature Alignment with Equivariant Convolutions for Burst Image Super-Resolution [52.55429225242423]
本稿では,同変畳み込みに基づくアライメントを特徴とするBurst Image Super-Resolution (BISR) のための新しいフレームワークを提案する。
これにより、アライメント変換は画像領域の明示的な監督を通じて学習でき、特徴領域に容易に適用できる。
BISRベンチマークの実験は、定量的メトリクスと視覚的品質の両方において、我々のアプローチの優れた性能を示している。
論文 参考訳(メタデータ) (2025-03-11T11:13:10Z) - Enhancing License Plate Super-Resolution: A Layout-Aware and Character-Driven Approach [2.9628782269544685]
本稿では, LPRタスク自体の性能だけでなく, 解像度, テクスチャ, 構造的詳細などの要因を考慮した新しい損失関数Layout and Character Oriented Focal Loss(LCOFL)を提案する。
我々は、変形可能な畳み込みと共有重み付けを用いた文字特徴学習を強化し、識別器として光学文字認識(OCR)モデルを用いたGANベースのトレーニングアプローチを採用する。
実験の結果, 文字再構成の精度は向上し, 定量化と定性化の両面で, 最先端の2つの手法に優れていた。
論文 参考訳(メタデータ) (2024-08-27T14:40:19Z) - ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - CoSeR: Bridging Image and Language for Cognitive Super-Resolution [74.24752388179992]
本稿では,低解像度画像の理解能力を備えたSRモデルを実現するCoSeR(Cognitive Super-Resolution)フレームワークを提案する。
画像の外観と言語理解を組み合わせることで、認知的な埋め込みを生成する。
画像の忠実度をさらに向上させるため、「オール・イン・アテンション」と呼ばれる新しい条件注入方式を提案する。
論文 参考訳(メタデータ) (2023-11-27T16:33:29Z) - Blind Image Super-resolution with Rich Texture-Aware Codebooks [12.608418657067947]
近年,高解像度 (HR) 再構成符号ブックに基づくブラインド超解像 (BSR) 法が有望な成果を上げている。
HR再構成に基づくコードブックは,低分解能(LR)画像とHR画像との複雑な相関を効果的に捉えることができない。
本稿では, 分解汚損防止用テクスチャ事前モジュール (DTPM) とパッチ対応テクスチャ先行モジュール (PTPM) から構成されるリッチテクスチャ対応コードブックベースネットワーク (RTCNet) を提案する。
論文 参考訳(メタデータ) (2023-10-26T07:00:18Z) - Noisy-Correspondence Learning for Text-to-Image Person Re-identification [50.07634676709067]
本稿では,雑音対応においても頑健な視覚関係を学習するための新しいロバスト二重埋め込み法(RDE)を提案する。
提案手法は,3つのデータセット上での合成ノイズ対応と非合成ノイズ対応を両立させる。
論文 参考訳(メタデータ) (2023-08-19T05:34:13Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。