論文の概要: Boosting Diffusion Guidance via Learning Degradation-Aware Models for Blind Super Resolution
- arxiv url: http://arxiv.org/abs/2501.08819v2
- Date: Wed, 22 Jan 2025 15:34:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 13:28:43.481240
- Title: Boosting Diffusion Guidance via Learning Degradation-Aware Models for Blind Super Resolution
- Title(参考訳): ブラインド超解像に対する学習劣化モデルによる拡散誘導の促進
- Authors: Shao-Hao Lu, Ren Wang, Ching-Chun Huang, Wei-Chen Chiu,
- Abstract要約: 本稿では,拡散誘導フレームワークに劣化認識モデルを組み込んだDADiffを提案する。
提案手法は,ブラインドSRベンチマークにおける最先端手法よりも優れた性能を有する。
- 参考スコア(独自算出の注目度): 23.803999447051336
- License:
- Abstract: Recently, diffusion-based blind super-resolution (SR) methods have shown great ability to generate high-resolution images with abundant high-frequency detail, but the detail is often achieved at the expense of fidelity. Meanwhile, another line of research focusing on rectifying the reverse process of diffusion models (i.e., diffusion guidance), has demonstrated the power to generate high-fidelity results for non-blind SR. However, these methods rely on known degradation kernels, making them difficult to apply to blind SR. To address these issues, we present DADiff in this paper. DADiff incorporates degradation-aware models into the diffusion guidance framework, eliminating the need to know degradation kernels. Additionally, we propose two novel techniques -- input perturbation and guidance scalar -- to further improve our performance. Extensive experimental results show that our proposed method has superior performance over state-of-the-art methods on blind SR benchmarks.
- Abstract(参考訳): 近年,拡散型ブラインド超解像法 (SR) は高周波数細部で高解像度画像を生成する能力が高いが,細部は忠実度を犠牲にしてしばしば達成されている。
一方、拡散モデル(拡散誘導)の逆過程の修正に焦点をあてた別の研究は、非盲検SRに対して高忠実度結果を生成する力を示した。
しかし、これらの手法は既知の劣化カーネルに依存しており、盲点SRに適用することは困難である。
これらの問題に対処するため,本論文ではDADiffについて述べる。
DADiffは、劣化認識モデルを拡散誘導フレームワークに組み込んで、劣化カーネルを知る必要をなくしている。
さらに,入力摂動と誘導スカラーの2つの新しい手法を提案する。
その結果,提案手法はブラインドSRベンチマークの最先端手法よりも優れた性能を示した。
関連論文リスト
- Distillation-Free One-Step Diffusion for Real-World Image Super-Resolution [81.81748032199813]
蒸留不要1ステップ拡散モデルを提案する。
具体的には、敵対的訓練に参加するためのノイズ認識識別器(NAD)を提案する。
我々は、エッジ対応disTS(EA-DISTS)による知覚損失を改善し、詳細な情報を生成するモデルの能力を向上させる。
論文 参考訳(メタデータ) (2024-10-05T16:41:36Z) - Degradation-Guided One-Step Image Super-Resolution with Diffusion Priors [75.24313405671433]
拡散に基づく画像超解像法 (SR) は、事前訓練された大規模なテキスト・画像拡散モデルを先行として活用することにより、顕著な成功を収めた。
本稿では,拡散型SR手法の効率問題に対処する新しい一段階SRモデルを提案する。
既存の微調整戦略とは異なり、SR専用の劣化誘導低ランク適応 (LoRA) モジュールを設計した。
論文 参考訳(メタデータ) (2024-09-25T16:15:21Z) - One Step Diffusion-based Super-Resolution with Time-Aware Distillation [60.262651082672235]
拡散に基づく画像超解像(SR)法は,低解像度画像から細部まで細部まで,高解像度画像の再構成に有望であることを示す。
近年,拡散型SRモデルの知識蒸留によるサンプリング効率の向上が試みられている。
我々は,効率的な画像超解像を実現するため,TAD-SRというタイムアウェア拡散蒸留法を提案する。
論文 参考訳(メタデータ) (2024-08-14T11:47:22Z) - AGLLDiff: Guiding Diffusion Models Towards Unsupervised Training-free Real-world Low-light Image Enhancement [37.274077278901494]
本稿では,AGLLDiff (Atribute Guidance Diffusion framework) を提案する。
AGLLDiffはパラダイムをシフトし、通常光画像の露出、構造、色などの望ましい属性をモデル化する。
我々の手法は、歪みベースのメトリクスと知覚ベースのメトリクスの点で、現在の非教師なしのLIEメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-07-20T15:17:48Z) - AddSR: Accelerating Diffusion-based Blind Super-Resolution with Adversarial Diffusion Distillation [42.34219615630592]
低分解能入力からの複雑な詳細で鮮明な高分解能画像の再構成における, 安定拡散ショーケースに基づくブラインド超解像法
その実用性はしばしば、数千から数百のサンプリングステップの要求に起因して、効率の悪さによって妨げられる。
効率の良い逆拡散蒸留 (ADD) にインスパイアされた我々は, 蒸留と制御ネットの両方のアイデアを取り入れることでこの問題に対処する。
論文 参考訳(メタデータ) (2024-04-02T08:07:38Z) - DifAugGAN: A Practical Diffusion-style Data Augmentation for GAN-based
Single Image Super-resolution [88.13972071356422]
本稿では,DifAugGAN として知られる GAN ベースの画像超解像法(SR) のための拡散型データ拡張手法を提案する。
それは、訓練中の判別器の校正を改善するために、生成拡散モデルに拡散過程を適用することを含む。
我々のDifAugGANは、現在のGANベースのSISR手法のプラグ・アンド・プレイ戦略であり、判別器の校正を改善し、SR性能を向上させることができる。
論文 参考訳(メタデータ) (2023-11-30T12:37:53Z) - ACDMSR: Accelerated Conditional Diffusion Models for Single Image
Super-Resolution [84.73658185158222]
本稿では,ACDMSRと呼ばれる拡散モデルに基づく超解像法を提案する。
提案手法は, 決定論的反復分解過程を通じて超解像を行うために, 標準拡散モデルに適応する。
提案手法は,低解像度画像に対してより視覚的に現実的な表現を生成し,現実的なシナリオにおけるその有効性を強調した。
論文 参考訳(メタデータ) (2023-07-03T06:49:04Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。