論文の概要: Towards a unified framework for guided diffusion models
- arxiv url: http://arxiv.org/abs/2512.04985v1
- Date: Thu, 04 Dec 2025 16:55:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.281823
- Title: Towards a unified framework for guided diffusion models
- Title(参考訳): 誘導拡散モデルのための統一的枠組みを目指して
- Authors: Yuchen Jiao, Yuxin Chen, Gen Li,
- Abstract要約: 我々は,拡散誘導と報酬誘導拡散を両立させる統一的アルゴリズムおよび理論的枠組みを開発する。
重要な応用として,本フレームワークは,分類器フリーガイダンス (CFG) が,分類器の確率の相反性を減少させることを示す。
報奨誘導拡散に適用すると、トレーニング中に完全な拡散軌跡を必要とせず、訓練が容易な新しいサンプルが生成される。
- 参考スコア(独自算出の注目度): 20.827441524264945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Guided or controlled data generation with diffusion models\blfootnote{Partial preliminary results of this work appeared in International Conference on Machine Learning 2025 \citep{li2025provable}.} has become a cornerstone of modern generative modeling. Despite substantial advances in diffusion model theory, the theoretical understanding of guided diffusion samplers remains severely limited. We make progress by developing a unified algorithmic and theoretical framework that accommodates both diffusion guidance and reward-guided diffusion. Aimed at fine-tuning diffusion models to improve certain rewards, we propose injecting a reward guidance term -- constructed from the difference between the original and reward-reweighted scores -- into the backward diffusion process, and rigorously quantify the resulting reward improvement over the unguided counterpart. As a key application, our framework shows that classifier-free guidance (CFG) decreases the expected reciprocal of the classifier probability, providing the first theoretical characterization of the specific performance metric that CFG improves for general target distributions. When applied to reward-guided diffusion, our framework yields a new sampler that is easy-to-train and requires no full diffusion trajectories during training. Numerical experiments further corroborate our theoretical findings.
- Abstract(参考訳): 拡散モデルを用いたガイド付きあるいは制御されたデータ生成 この研究の予備的な結果は、International Conference on Machine Learning 2025 \citep{li2025provable}に登場した。
現代のジェネレーティブモデリングの基盤となっている。
拡散モデル理論のかなりの進歩にもかかわらず、誘導拡散サンプリング器の理論的理解は依然として著しく制限されている。
我々は、拡散誘導と報酬誘導拡散の両方に対応する統一されたアルゴリズム的理論的枠組みを開発することで前進する。
特定の報酬を改善するための微調整拡散モデルを目指して、原点と報奨重み付きスコアの差から構成された報奨誘導項を後方拡散過程に注入し、その結果得られる報奨改善を無罪者に対して厳密に定量化する。
重要な応用として,本フレームワークは,分類器フリーガイダンス (CFG) が,分類器の確率の相反性を減少させることを示す。
報奨誘導拡散に適用すると、トレーニング中に完全な拡散軌跡を必要とせず、訓練が容易な新しいサンプルが生成される。
数値実験は我々の理論的な発見をさらに裏付ける。
関連論文リスト
- Demystifying Diffusion Objectives: Reweighted Losses are Better Variational Bounds [23.425710086428413]
拡散モデルの訓練に広く用いられている再重み付き損失の新たな理論的解釈を導出する。
本手法は,データログに時間依存的な変動的下界のカスケードを構築することに基づく。
本稿では、連続拡散モデルに匹敵するサンプル品質にアプローチし、画素空間画像モデリングにおける以前のトレーニング損失よりも大幅に改善したことを報告する。
論文 参考訳(メタデータ) (2025-11-24T19:58:45Z) - Theory-Informed Improvements to Classifier-Free Guidance for Discrete Diffusion Models [24.186262549509102]
本稿では,CFGをマスク付き離散拡散の文脈で理論的に解析する。
サンプリング(入力が重くマスクされている場合)の早期ガイダンスは生成品質を損なうが、後期ガイダンスは大きな効果がある。
提案手法は,データ分布と初期(マスキング/ユニフォーム)分布の輸送を円滑に行い,その結果,サンプルの品質が向上した。
論文 参考訳(メタデータ) (2025-07-11T18:48:29Z) - Training-Free Stein Diffusion Guidance: Posterior Correction for Sampling Beyond High-Density Regions [46.59494117137471]
自由拡散誘導の訓練は、追加の訓練なしに既成の分類器を活用する柔軟な方法を提供する。
本稿では,SOC を対象とする新たなトレーニングフリーフレームワークである Stein Diffusion Guidance (SDG) を紹介する。
分子低密度サンプリングタスクの実験は、SDGが標準のトレーニングフリーガイダンス手法を一貫して上回っていることを示唆している。
論文 参考訳(メタデータ) (2025-07-07T21:14:27Z) - A Score-Based Density Formula, with Applications in Diffusion Generative Models [6.76974373198208]
スコアベース生成モデル(SGM)は、生成モデリングの分野に革命をもたらし、現実的で多様なコンテンツを生成するのに前例のない成功を収めた。
実験的な進歩にもかかわらず、ログライクリッド上でのエビデンスローバウンド(ELBO)の最適化がDDPMなどの拡散生成モデルの訓練に有効である理由に関する理論的根拠はほとんど未解明のままである。
論文 参考訳(メタデータ) (2024-08-29T17:59:07Z) - An Overview of Diffusion Models: Applications, Guided Generation, Statistical Rates and Optimization [59.63880337156392]
拡散モデルはコンピュータビジョン、オーディオ、強化学習、計算生物学において大きな成功を収めた。
経験的成功にもかかわらず、拡散モデルの理論は非常に限定的である。
本稿では,前向きな理論や拡散モデルの手法を刺激する理論的露光について述べる。
論文 参考訳(メタデータ) (2024-04-11T14:07:25Z) - Theoretical Insights for Diffusion Guidance: A Case Study for Gaussian
Mixture Models [59.331993845831946]
拡散モデルは、所望の特性に向けてサンプル生成を操るために、スコア関数にタスク固有の情報を注入することの恩恵を受ける。
本稿では,ガウス混合モデルの文脈における拡散モデルに対する誘導の影響を理解するための最初の理論的研究を提供する。
論文 参考訳(メタデータ) (2024-03-03T23:15:48Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Manifold Preserving Guided Diffusion [121.97907811212123]
条件付き画像生成は、コスト、一般化可能性、タスク固有のトレーニングの必要性といった課題に直面している。
トレーニング不要な条件生成フレームワークであるManifold Preserving Guided Diffusion (MPGD)を提案する。
論文 参考訳(メタデータ) (2023-11-28T02:08:06Z) - Towards Controllable Diffusion Models via Reward-Guided Exploration [15.857464051475294]
強化学習(RL)による拡散モデルの学習段階を導く新しい枠組みを提案する。
RLは、政策そのものではなく、指数スケールの報酬に比例したペイオフ分布からのサンプルによる政策勾配を計算することができる。
3次元形状と分子生成タスクの実験は、既存の条件拡散モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-14T13:51:26Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。