論文の概要: Unsupervised Image Super-Resolution Reconstruction Based on Real-World Degradation Patterns
- arxiv url: http://arxiv.org/abs/2506.17027v1
- Date: Fri, 20 Jun 2025 14:24:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.4845
- Title: Unsupervised Image Super-Resolution Reconstruction Based on Real-World Degradation Patterns
- Title(参考訳): 実世界の劣化パターンに基づく教師なし画像超解像再構成
- Authors: Yiyang Tie, Hong Zhu, Yunyun Luo, Jing Shi,
- Abstract要約: 超解像再構成モデルのトレーニングのための新しいTripleGANフレームワークを提案する。
このフレームワークは、LR観測から実世界の劣化パターンを学習し、対応する劣化特性を持つデータセットを合成する。
本手法は, 過スムーズなアーティファクトを伴わずに, 鋭い復元を維持しながら, 定量的な測定値に明らかな利点を示す。
- 参考スコア(独自算出の注目度): 4.977925450373957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The training of real-world super-resolution reconstruction models heavily relies on datasets that reflect real-world degradation patterns. Extracting and modeling degradation patterns for super-resolution reconstruction using only real-world low-resolution (LR) images remains a challenging task. When synthesizing datasets to simulate real-world degradation, relying solely on degradation extraction methods fails to capture both blur and diverse noise characteristics across varying LR distributions, as well as more implicit degradations such as color gamut shifts. Conversely, domain translation alone cannot accurately approximate real-world blur characteristics due to the significant degradation domain gap between synthetic and real data. To address these challenges, we propose a novel TripleGAN framework comprising two strategically designed components: The FirstGAN primarily focuses on narrowing the domain gap in blur characteristics, while the SecondGAN performs domain-specific translation to approximate target-domain blur properties and learn additional degradation patterns. The ThirdGAN is trained on pseudo-real data generated by the FirstGAN and SecondGAN to reconstruct real-world LR images. Extensive experiments on the RealSR and DRealSR datasets demonstrate that our method exhibits clear advantages in quantitative metrics while maintaining sharp reconstructions without over-smoothing artifacts. The proposed framework effectively learns real-world degradation patterns from LR observations and synthesizes aligned datasets with corresponding degradation characteristics, thereby enabling the trained network to achieve superior performance in reconstructing high-quality SR images from real-world LR inputs.
- Abstract(参考訳): 現実世界の超解像復元モデルのトレーニングは、現実世界の劣化パターンを反映したデータセットに大きく依存している。
実世界の低解像度(LR)画像のみを用いた超解像再構成のための抽出とモデル化は依然として難しい課題である。
実世界の劣化をシミュレートするためにデータセットを合成する際、分解抽出法のみに依存すると、様々なLR分布にまたがる曖昧で多様なノイズ特性と、色域シフトのような暗黙的な劣化の両方を捉えることができない。
逆に、ドメイン変換だけでは、合成データと実データの間に有意な劣化領域ギャップがあるため、現実世界のぼやけ特性を正確に近似することはできない。
これらの課題に対処するため、我々は戦略的に設計された2つのコンポーネントからなる新しいTripleGANフレームワークを提案する: FirstGANは、主に、ぼかし特性のドメインギャップを狭めることに焦点を当て、SecondGANは、ターゲット-ぼかし特性を近似してドメイン固有の翻訳を行い、さらに劣化パターンを学習する。
第3GANは、第1GANと第2GANによって生成された擬似現実データに基づいて訓練され、現実世界のLR画像を再構成する。
RealSR および DRealSR データセットの大規模な実験により,本手法は,過度に平滑なアーティファクトを残さずに,鋭い再構築を維持しながら,定量的な測定値に明確な優位性を示すことが示された。
提案フレームワークは、LR観測から実世界の劣化パターンを効果的に学習し、対応する劣化特性を持つ整列データセットを合成することにより、実世界のLR入力から高品質なSRイメージを再構成する際の優れた性能を実現する。
関連論文リスト
- Towards Realistic Data Generation for Real-World Super-Resolution [58.99206459754721]
RealDGenは、現実世界の超解像のために設計された教師なし学習データ生成フレームワークである。
我々は,コンテンツ分解脱結合拡散モデルに統合されたコンテンツと劣化抽出戦略を開発する。
実験により、RealDGenは、現実世界の劣化を反映する大規模で高品質なペアデータを生成するのに優れていることが示された。
論文 参考訳(メタデータ) (2024-06-11T13:34:57Z) - Learning Dual-Level Deformable Implicit Representation for Real-World Scale Arbitrary Super-Resolution [81.74583887661794]
整数と非整数のスケーリング要素を併用した,新しい実世界のスーパーレゾリューションベンチマークを構築した。
実世界の任意の超解像を解くために,Dual-level Deformable Implicit Representation (DDIR)を提案する。
実世界の任意の超解像のためのRealArbiSRおよびRealSRベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-16T13:44:42Z) - Joint Generative Learning and Super-Resolution For Real-World
Camera-Screen Degradation [6.14297871633911]
現実世界の単一画像超解像(SISR)タスクでは、低解像度画像はより複雑な劣化に苦しむ。
本稿では,カメラ画面の劣化に着目し,実世界のデータセット(Cam-ScreenSR)を構築する。
まず、ダウンサンプリング劣化GAN(DD-GAN)をトレーニングし、その分解をモデル化し、より多様なLR画像を生成する。
そして、二重残差チャネルアテンションネットワーク(DuRCAN)がSR画像の復元を学習する。
論文 参考訳(メタデータ) (2020-08-01T07:10:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。