論文の概要: Provable Efficiency of Guidance in Diffusion Models for General Data Distribution
- arxiv url: http://arxiv.org/abs/2505.01382v1
- Date: Fri, 02 May 2025 16:46:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:20.085856
- Title: Provable Efficiency of Guidance in Diffusion Models for General Data Distribution
- Title(参考訳): 一般データ配信のための拡散モデルにおける誘導の確率的効率
- Authors: Gen Li, Yuchen Jiao,
- Abstract要約: 拡散モデルは、生成モデリングの強力なフレームワークとして登場した。
ガイダンス技術は、サンプルの品質を高める上で重要な役割を担っている。
既存の研究は、各クラスで条件付けられた分布が等方的ガウス的であるか、余剰条件のある一次元間隔で支持されるケーススタディのみに焦点を当てている。
- 参考スコア(独自算出の注目度): 7.237817437521988
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have emerged as a powerful framework for generative modeling, with guidance techniques playing a crucial role in enhancing sample quality. Despite their empirical success, a comprehensive theoretical understanding of the guidance effect remains limited. Existing studies only focus on case studies, where the distribution conditioned on each class is either isotropic Gaussian or supported on a one-dimensional interval with some extra conditions. How to analyze the guidance effect beyond these case studies remains an open question. Towards closing this gap, we make an attempt to analyze diffusion guidance under general data distributions. Rather than demonstrating uniform sample quality improvement, which does not hold in some distributions, we prove that guidance can improve the whole sample quality, in the sense that the average reciprocal of the classifier probability decreases with the existence of guidance. This aligns with the motivation of introducing guidance.
- Abstract(参考訳): 拡散モデルが生成モデリングの強力なフレームワークとして登場し、ガイダンス技術がサンプルの品質向上に重要な役割を果たしている。
実証的な成功にもかかわらず、ガイダンス効果に関する包括的な理論的理解は依然として限られている。
既存の研究は、各クラスで条件付けられた分布が等方的ガウス的であるか、余剰条件のある一次元間隔で支持されるケーススタディのみに焦点を当てている。
これらのケーススタディを超えてガイダンスの効果をどう分析するかは、未解決の問題である。
このギャップを埋めるために、一般的なデータ分布下での拡散誘導を解析しようと試みる。
いくつかの分布に収まらない均一なサンプル品質改善を示すのではなく、ガイダンスの存在によって、分類器の確率の平均的相反が減少するという意味で、ガイダンスが全サンプル品質を改善することができることを証明している。
これはガイダンスを導入する動機と一致する。
関連論文リスト
- Improving Discriminator Guidance in Diffusion Models [43.91753296748528]
クロスエントロピー損失を用いた判別器の訓練は、一般的に行われるように、モデルと対象分布間のクルバック・リーブラーのばらつきを増大させることができることを示す。
KLの発散を適切に最小化する識別器誘導のための理論的に健全な学習目標を提案する。
論文 参考訳(メタデータ) (2025-03-20T13:04:43Z) - Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
一般のスコアミスマッチ拡散サンプリング器に対する明示的な次元依存性を持つ最初の性能保証を示す。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - Generalizing to any diverse distribution: uniformity, gentle finetuning and rebalancing [55.791818510796645]
我々は,訓練データから大きく逸脱した場合でも,様々なテスト分布によく適応するモデルを開発することを目的としている。
ドメイン適応、ドメイン一般化、ロバスト最適化といった様々なアプローチは、アウト・オブ・ディストリビューションの課題に対処しようと試みている。
我々は、既知のドメイン内の十分に多様なテスト分布にまたがる最悪のケースエラーを考慮することで、より保守的な視点を採用する。
論文 参考訳(メタデータ) (2024-10-08T12:26:48Z) - What does guidance do? A fine-grained analysis in a simple setting [19.51972040691315]
誘導の力学を2つのケースで詳細に解析する。
非ゼロレベルのスコア推定誤差に対して、十分な大きなガイダンスがサポートからのサンプリングにつながることを証明します。
論文 参考訳(メタデータ) (2024-09-19T20:16:33Z) - Theoretical Insights for Diffusion Guidance: A Case Study for Gaussian
Mixture Models [59.331993845831946]
拡散モデルは、所望の特性に向けてサンプル生成を操るために、スコア関数にタスク固有の情報を注入することの恩恵を受ける。
本稿では,ガウス混合モデルの文脈における拡散モデルに対する誘導の影響を理解するための最初の理論的研究を提供する。
論文 参考訳(メタデータ) (2024-03-03T23:15:48Z) - Fair Sampling in Diffusion Models through Switching Mechanism [5.560136885815622]
本研究では,拡散モデルに対するテクスタトリビュートスイッチング機構という,公平性を考慮したサンプリング手法を提案する。
提案手法の有効性を2つの重要な側面から数学的に証明し,実験的に実証する。
論文 参考訳(メタデータ) (2024-01-06T06:55:26Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。