論文の概要: PGDiff: Guiding Diffusion Models for Versatile Face Restoration via
Partial Guidance
- arxiv url: http://arxiv.org/abs/2309.10810v1
- Date: Tue, 19 Sep 2023 17:51:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 13:01:53.952331
- Title: PGDiff: Guiding Diffusion Models for Versatile Face Restoration via
Partial Guidance
- Title(参考訳): PGDiff:部分誘導による顔修復のための拡散モデル
- Authors: Peiqing Yang, Shangchen Zhou, Qingyi Tao, Chen Change Loy
- Abstract要約: これまでの研究は、明示的な劣化モデルを用いて解空間を制限することで、注目すべき成功を収めてきた。
実世界の劣化に適応可能な新しい視点である部分的ガイダンスを導入することでPGDiffを提案する。
提案手法は,既存の拡散優先手法に勝るだけでなく,タスク固有モデルと良好に競合する。
- 参考スコア(独自算出の注目度): 65.5618804029422
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Exploiting pre-trained diffusion models for restoration has recently become a
favored alternative to the traditional task-specific training approach.
Previous works have achieved noteworthy success by limiting the solution space
using explicit degradation models. However, these methods often fall short when
faced with complex degradations as they generally cannot be precisely modeled.
In this paper, we propose PGDiff by introducing partial guidance, a fresh
perspective that is more adaptable to real-world degradations compared to
existing works. Rather than specifically defining the degradation process, our
approach models the desired properties, such as image structure and color
statistics of high-quality images, and applies this guidance during the reverse
diffusion process. These properties are readily available and make no
assumptions about the degradation process. When combined with a diffusion
prior, this partial guidance can deliver appealing results across a range of
restoration tasks. Additionally, PGDiff can be extended to handle composite
tasks by consolidating multiple high-quality image properties, achieved by
integrating the guidance from respective tasks. Experimental results
demonstrate that our method not only outperforms existing diffusion-prior-based
approaches but also competes favorably with task-specific models.
- Abstract(参考訳): 修復のための事前訓練された拡散モデルの作成は、近年、従来のタスク固有のトレーニングアプローチの代替として好まれている。
これまでの研究は、明確な劣化モデルを用いて解空間を制限することで、注目すべき成功を収めてきた。
しかし、これらの手法は、一般的に正確にモデル化できない複雑な劣化に直面した場合には、しばしば不足する。
本稿では,既存の作品と比較して現実の劣化に適応可能な新しい視点である部分的ガイダンスを導入することでPGDiffを提案する。
劣化過程を具体的に定義するのではなく、画像構造や高品質画像の色統計などの望ましい特性をモデル化し、逆拡散過程においてこのガイダンスを適用する。
これらの性質は容易に利用でき、劣化過程について仮定することはない。
拡散前処理と組み合わせると、この部分的指導は様々な修復作業を通して魅力的な結果をもたらすことができる。
さらに、PGDiffは、複数の高品質な画像特性を統合し、各タスクからのガイダンスを統合することで、複合タスクを処理するように拡張することができる。
実験結果から,本手法は既存の拡散優先手法に勝るだけでなく,タスク固有モデルと良好に競合することが示された。
関連論文リスト
- Decoupled Data Consistency with Diffusion Purification for Image
Restoration [10.491534002121044]
本稿では,データ整合性ステップから逆処理を分離することで問題に対処する拡散型画像復元法を提案する。
我々の手法は多目的性を示し、潜在空間における効率的な問題解決に高い適応性を与える。
提案手法の有効性は,画像のデノイング,デブロアリング,インペイント,超解像など,画像修復作業における総合的な実験を通じて検証される。
論文 参考訳(メタデータ) (2024-03-10T00:47:05Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Phasic Content Fusing Diffusion Model with Directional Distribution
Consistency for Few-Shot Model Adaption [73.98706049140098]
本稿では,方向分布の整合性を損なう少数ショット拡散モデルを用いた新しいファシックコンテンツを提案する。
具体的には、ファシックコンテンツ融合を用いたファシックトレーニング戦略を設計し、tが大きければ、モデルがコンテンツやスタイル情報を学ぶのに役立てる。
最後に、ドメイン適応時の構造整合性を高めるクロスドメイン構造ガイダンス戦略を提案する。
論文 参考訳(メタデータ) (2023-09-07T14:14:11Z) - Diffusion Models for Image Restoration and Enhancement -- A
Comprehensive Survey [96.99328714941657]
本稿では,近年の拡散モデルに基づく画像復元手法について概観する。
我々は、赤外線とブラインド/現実世界の両方で拡散モデルを用いて、革新的なデザインを分類し、強調する。
本稿では,拡散モデルに基づくIRの今後の研究に向けた5つの可能性と課題を提案する。
論文 参考訳(メタデータ) (2023-08-18T08:40:38Z) - A Unified Conditional Framework for Diffusion-based Image Restoration [39.418415473235235]
画像復元のための拡散モデルに基づく統一条件付きフレームワークを提案する。
我々は、軽量なUNetを利用して初期ガイダンスと拡散モデルを予測し、指導の残余を学習する。
そこで本研究では,高解像度画像を扱うために,単純なステップ間パッチ分割方式を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:22:24Z) - A Variational Perspective on Solving Inverse Problems with Diffusion
Models [101.831766524264]
逆タスクは、データ上の後続分布を推測するものとして定式化することができる。
しかし、拡散過程の非線形的かつ反復的な性質が後部を引き付けるため、拡散モデルではこれは困難である。
そこで我々は,真の後続分布を近似する設計手法を提案する。
論文 参考訳(メタデータ) (2023-05-07T23:00:47Z) - DifFace: Blind Face Restoration with Diffused Error Contraction [73.80750717836384]
DifFaceは、複雑な損失設計なしで、目に見えない複雑な劣化にもっと優しく対処できる。
現在の最先端の手法よりも優れており、特に深刻な劣化の場合には優れている。
論文 参考訳(メタデータ) (2022-12-13T11:52:33Z) - Panini-Net: GAN Prior Based Degradation-Aware Feature Interpolation for
Face Restoration [4.244692655670362]
Panini-Netは、顔修復のための劣化認識機能ネットワークである。
抽象表現を学び、様々な劣化を区別する。
マルチ劣化顔復元と超解像のための最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-16T07:41:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。