論文の概要: Local-Global Context-Aware and Structure-Preserving Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2510.13649v1
- Date: Sat, 11 Oct 2025 07:17:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.726547
- Title: Local-Global Context-Aware and Structure-Preserving Image Super-Resolution
- Title(参考訳): 局所グローバルコンテキスト認識と構造保存画像スーパーリゾリューション
- Authors: Sanchar Palit, Subhasis Chaudhuri, Biplab Banerjee,
- Abstract要約: 安定拡散(Stable Diffusion)のような事前訓練されたテキスト・ツー・イメージモデルは、リアルな画像コンテンツを合成する強力な能力を示した。
本稿では,局所的およびグローバルな画素関係を効果的に維持する,文脈的に正確な画像超解像フレームワークを提案する。
- 参考スコア(独自算出の注目度): 23.87231269881077
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have recently achieved significant success in various image manipulation tasks, including image super-resolution and perceptual quality enhancement. Pretrained text-to-image models, such as Stable Diffusion, have exhibited strong capabilities in synthesizing realistic image content, which makes them particularly attractive for addressing super-resolution tasks. While some existing approaches leverage these models to achieve state-of-the-art results, they often struggle when applied to diverse and highly degraded images, leading to noise amplification or incorrect content generation. To address these limitations, we propose a contextually precise image super-resolution framework that effectively maintains both local and global pixel relationships through Local-Global Context-Aware Attention, enabling the generation of high-quality images. Furthermore, we propose a distribution- and perceptual-aligned conditioning mechanism in the pixel space to enhance perceptual fidelity. This mechanism captures fine-grained pixel-level representations while progressively preserving and refining structural information, transitioning from local content details to the global structural composition. During inference, our method generates high-quality images that are structurally consistent with the original content, mitigating artifacts and ensuring realistic detail restoration. Extensive experiments on multiple super-resolution benchmarks demonstrate the effectiveness of our approach in producing high-fidelity, perceptually accurate reconstructions.
- Abstract(参考訳): 拡散モデルは最近、画像の超解像や知覚的品質向上など、様々な画像操作タスクで大きな成功を収めている。
安定拡散(Stable Diffusion)のような事前訓練されたテキスト・ツー・イメージモデルは、現実的な画像コンテンツを合成する強力な能力を示しており、超解像度タスクに対処する上で特に魅力的である。
既存のアプローチでは、これらのモデルを利用して最先端の結果が得られるが、多彩で高度に劣化した画像に適用すると、ノイズの増幅や不正なコンテンツ生成につながることがしばしばある。
これらの制約に対処するために,ローカル・グローバル・コンテクスト・アウェア・アテンションを通じて局所・グローバル・ピクセル関係を効果的に維持し,高品質な画像生成を可能にする,文脈的精度の高い画像超解像フレームワークを提案する。
さらに,画素空間における分布・知覚整合条件付け機構を提案し,知覚の忠実度を高める。
このメカニズムは、局所的な内容の詳細からグローバルな構造構成へ移行しながら、構造情報を段階的に保存し、精製しながら、きめ細かいピクセルレベルの表現をキャプチャする。
推測中,本手法は,オリジナルコンテンツと構造的に整合した高品質な画像を生成し,アーティファクトを緩和し,現実的な詳細復元を確実にする。
複数の超高解像度ベンチマークに対する大規模な実験は、高忠実で知覚的に正確な再構成を行う上で、我々のアプローチの有効性を実証している。
関連論文リスト
- Perceive, Understand and Restore: Real-World Image Super-Resolution with Autoregressive Multimodal Generative Models [33.76031793753807]
我々は、自己回帰型マルチモーダルモデルLumina-mGPTを堅牢なReal-ISRモデル、すなわちPUREに適応する。
PUREは入力された低画質の画像を認識して理解し、高品質の画像を復元する。
実験により、PUREはリアルな細部を生成しながら、画像の内容を保存していることが示された。
論文 参考訳(メタデータ) (2025-03-14T04:33:59Z) - DeeDSR: Towards Real-World Image Super-Resolution via Degradation-Aware Stable Diffusion [27.52552274944687]
低解像度画像のコンテンツや劣化を認識する拡散モデルの能力を高める新しい2段階の劣化認識フレームワークを提案する。
最初の段階では、教師なしのコントラスト学習を用いて画像劣化の表現を得る。
第2段階では、分解対応モジュールを単純化されたControlNetに統合し、様々な劣化への柔軟な適応を可能にします。
論文 参考訳(メタデータ) (2024-03-31T12:07:04Z) - CoSeR: Bridging Image and Language for Cognitive Super-Resolution [74.24752388179992]
本稿では,低解像度画像の理解能力を備えたSRモデルを実現するCoSeR(Cognitive Super-Resolution)フレームワークを提案する。
画像の外観と言語理解を組み合わせることで、認知的な埋め込みを生成する。
画像の忠実度をさらに向上させるため、「オール・イン・アテンション」と呼ばれる新しい条件注入方式を提案する。
論文 参考訳(メタデータ) (2023-11-27T16:33:29Z) - High-Quality Pluralistic Image Completion via Code Shared VQGAN [51.7805154545948]
高速な推論速度で高品質と多様性を両立させることができる多元画像補完のための新しい枠組みを提案する。
我々のフレームワークは、セマンティックにリッチな離散的なコードを効率的かつ堅牢に学習することができ、画像再構成の品質が大幅に向上する。
論文 参考訳(メタデータ) (2022-04-05T01:47:35Z) - Efficient texture-aware multi-GAN for image inpainting [5.33024001730262]
近年のGAN (Generative Adversarial Network) のインペイント手法は顕著に改善されている。
本稿では,性能とレンダリング効率の両方を改善するマルチGANアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-30T14:58:03Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。