論文の概要: Variational Control for Guidance in Diffusion Models
- arxiv url: http://arxiv.org/abs/2502.03686v1
- Date: Thu, 06 Feb 2025 00:24:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:34:42.362528
- Title: Variational Control for Guidance in Diffusion Models
- Title(参考訳): 拡散モデルにおける誘導の変動制御
- Authors: Kushagra Pandey, Farrin Marouf Sofian, Felix Draxler, Theofanis Karaletsos, Stephan Mandt,
- Abstract要約: 本稿では,DTM(Diffusion Trajectory Matching)を提案する。
DTMは幅広いガイダンス手法を統一し、新しいインスタンス化を可能にする。
例えば、ImageNetの非線形デブロアリングにおいて、我々のモデルはFIDスコア34.31を達成し、最高の事前訓練されたベースライン(FID 78.07)よりも大幅に改善した。
- 参考スコア(独自算出の注目度): 19.51536406897083
- License:
- Abstract: Diffusion models exhibit excellent sample quality, but existing guidance methods often require additional model training or are limited to specific tasks. We revisit guidance in diffusion models from the perspective of variational inference and control, introducing Diffusion Trajectory Matching (DTM) that enables guiding pretrained diffusion trajectories to satisfy a terminal cost. DTM unifies a broad class of guidance methods and enables novel instantiations. We introduce a new method within this framework that achieves state-of-the-art results on several linear and (blind) non-linear inverse problems without requiring additional model training or modifications. For instance, in ImageNet non-linear deblurring, our model achieves an FID score of 34.31, significantly improving over the best pretrained-method baseline (FID 78.07). We will make the code available in a future update.
- Abstract(参考訳): 拡散モデルは優れたサンプル品質を示すが、既存のガイダンス手法では追加のモデルトレーニングや特定のタスクに制限されることが多い。
本稿では,拡散モデルにおける拡散モデルにおける拡散軌道マッチング(DTM)を導入し,予測された拡散軌道を導出して終端コストを満足させる手法を提案する。
DTMは幅広いガイダンス手法を統一し、新しいインスタンス化を可能にする。
本稿では, モデルトレーニングや修正を必要とせずに, 線形および非線形の逆問題に対して, 最先端の結果を得る新しい手法を提案する。
例えば、ImageNetの非線形デブロアリングでは、FIDスコア34.31を達成し、最高の事前訓練されたベースライン(FID 78.07)よりも大幅に改善した。
将来のアップデートでコードを利用可能にします。
関連論文リスト
- Dreamguider: Improved Training free Diffusion-based Conditional Generation [31.68823843900196]
Dreamguiderは、拡散ネットワークを介して計算量の多いバックプロパゲーションを伴わない推論時ガイダンスを可能にする手法である。
提案するモジュールの有効性を示すために,複数のデータセットやモデルにまたがる複数のタスクに対してDreamguiderを用いて実験を行った。
論文 参考訳(メタデータ) (2024-06-04T17:59:32Z) - Adaptive Training Meets Progressive Scaling: Elevating Efficiency in Diffusion Models [52.1809084559048]
TDCトレーニングと呼ばれる新しい2段階分割型トレーニング戦略を提案する。
タスクの類似性と難易度に基づいてタイムステップをグループ化し、高度にカスタマイズされた復調モデルを各グループに割り当て、拡散モデルの性能を向上させる。
2段階のトレーニングでは、各モデルを個別にトレーニングする必要がなくなるが、総トレーニングコストは、単一の統合されたデノナイジングモデルをトレーニングするよりもさらに低い。
論文 参考訳(メタデータ) (2023-12-20T03:32:58Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Manifold Preserving Guided Diffusion [121.97907811212123]
条件付き画像生成は、コスト、一般化可能性、タスク固有のトレーニングの必要性といった課題に直面している。
トレーニング不要な条件生成フレームワークであるManifold Preserving Guided Diffusion (MPGD)を提案する。
論文 参考訳(メタデータ) (2023-11-28T02:08:06Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Training-free Linear Image Inverses via Flows [17.291903204982326]
本研究では,事前学習フローモデルを用いて,線形逆問題に対する学習自由度を求める手法を提案する。
提案手法では,高次元データセット上でのノイズの多い線形逆問題に対して,問題固有のチューニングは不要である。
論文 参考訳(メタデータ) (2023-09-25T22:13:16Z) - On-the-Fly Guidance Training for Medical Image Registration [14.309599960641242]
本研究は,既存の学習ベース画像登録モデルを改善するための新しいトレーニングフレームワークであるOn-the-Fly Guidance(OFG)を紹介する。
本手法では,ラベル付きデータを必要としない登録モデルをトレーニングするための教師付き手法を提案する。
提案手法は,複数のベンチマークデータセットおよび先行モデルでテストされ,性能が大幅に向上した。
論文 参考訳(メタデータ) (2023-08-29T11:12:53Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - Towards Controllable Diffusion Models via Reward-Guided Exploration [15.857464051475294]
強化学習(RL)による拡散モデルの学習段階を導く新しい枠組みを提案する。
RLは、政策そのものではなく、指数スケールの報酬に比例したペイオフ分布からのサンプルによる政策勾配を計算することができる。
3次元形状と分子生成タスクの実験は、既存の条件拡散モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-14T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。