論文の概要: O(d/T) Convergence Theory for Diffusion Probabilistic Models under Minimal Assumptions
- arxiv url: http://arxiv.org/abs/2409.18959v2
- Date: Wed, 22 Jan 2025 16:45:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 16:52:53.941990
- Title: O(d/T) Convergence Theory for Diffusion Probabilistic Models under Minimal Assumptions
- Title(参考訳): 最小推定条件下での拡散確率モデルに対するO(d/T)収束理論
- Authors: Gen Li, Yuling Yan,
- Abstract要約: 最小の仮定の下で,拡散確率モデル(DDPM)の高速収束理論を確立する。
収束率は$O(k/T)$に改善され、$k$は対象データ分布の内在次元であることを示す。
これはDDPMが未知の低次元構造に自動的に適応する能力を強調している。
- 参考スコア(独自算出の注目度): 6.76974373198208
- License:
- Abstract: Score-based diffusion models, which generate new data by learning to reverse a diffusion process that perturbs data from the target distribution into noise, have achieved remarkable success across various generative tasks. Despite their superior empirical performance, existing theoretical guarantees are often constrained by stringent assumptions or suboptimal convergence rates. In this paper, we establish a fast convergence theory for the denoising diffusion probabilistic model (DDPM), a widely used SDE-based sampler, under minimal assumptions. Our analysis shows that, provided $\ell_{2}$-accurate estimates of the score functions, the total variation distance between the target and generated distributions is upper bounded by $O(d/T)$ (ignoring logarithmic factors), where $d$ is the data dimensionality and $T$ is the number of steps. This result holds for any target distribution with finite first-order moment. Moreover, we show that with careful coefficient design, the convergence rate improves to $O(k/T)$, where $k$ is the intrinsic dimension of the target data distribution. This highlights the ability of DDPM to automatically adapt to unknown low-dimensional structures, a common feature of natural image distributions. These results are achieved through a novel set of analytical tools that provides a fine-grained characterization of how the error propagates at each step of the reverse process.
- Abstract(参考訳): 目標分布からノイズへとデータを摂動させる拡散過程を学習して新しいデータを生成するスコアベース拡散モデルは、様々な生成タスクにおいて顕著な成功を収めた。
その優れた経験的性能にもかかわらず、既存の理論上の保証はしばしば厳密な仮定や準最適収束率によって制約される。
本稿では,分散確率モデル(DDPM:denoising diffusion probabilistic model)の高速収束理論を,最小限の仮定の下で確立する。
解析の結果、スコア関数の$\ell_{2}$-accurate推定値が与えられた場合、ターゲットと生成された分布間の総変動距離は$O(d/T)$(対数因子を無視)で上界し、$d$はデータ次元、$T$はステップ数であることがわかった。
この結果は、有限一階のモーメントを持つ任意の対象分布に対して成り立つ。
さらに、注意的な係数設計により、収束率は$O(k/T)$に改善され、$k$は対象データ分布の内在次元であることを示す。
これはDDPMが未知の低次元構造に自動的に適応する能力を強調している。
これらの結果は、逆プロセスの各ステップでエラーがどのように伝播するかの詳細な特徴を提供する、新しい分析ツールセットによって達成される。
関連論文リスト
- Adaptivity and Convergence of Probability Flow ODEs in Diffusion Generative Models [5.064404027153094]
本稿では,その実用性で知られた拡散型サンプル装置である,確率フローODEの理論的保証の確立に寄与する。
精度の高いスコア関数推定では,確率フローODEサンプリング器は全変動距離において$O(k/T)$の収束率を達成する。
この次元自由収束速度は、通常より大きな周囲次元でスケールする既存の結果を改善する。
論文 参考訳(メタデータ) (2025-01-31T03:10:10Z) - Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
本報告では,明示的な次元の一般スコアミスマッチ拡散サンプリング器を用いた最初の性能保証について述べる。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - Non-asymptotic bounds for forward processes in denoising diffusions: Ornstein-Uhlenbeck is hard to beat [49.1574468325115]
本稿では,全変動(TV)における前方拡散誤差の非漸近的境界について述べる。
我々は、R$からFarthestモードまでの距離でマルチモーダルデータ分布をパラメライズし、加法的および乗法的雑音による前方拡散を考察する。
論文 参考訳(メタデータ) (2024-08-25T10:28:31Z) - A Sharp Convergence Theory for The Probability Flow ODEs of Diffusion Models [45.60426164657739]
拡散型サンプリング器の非漸近収束理論を開発する。
我々は、$d/varepsilon$がターゲット分布を$varepsilon$トータル偏差距離に近似するのに十分であることを証明した。
我々の結果は、$ell$のスコア推定誤差がデータ生成プロセスの品質にどのように影響するかも特徴付ける。
論文 参考訳(メタデータ) (2024-08-05T09:02:24Z) - Adapting to Unknown Low-Dimensional Structures in Score-Based Diffusion Models [6.76974373198208]
周囲の次元が$d$である場合、各デノイングステップ内で発生する誤差の依存性は、一般的には避けられない。
これはDDPMサンプリング器がターゲット分布の未知の低次元構造に適応できるという最初の理論実証である。
論文 参考訳(メタデータ) (2024-05-23T17:59:10Z) - Discrete Diffusion Modeling by Estimating the Ratios of the Data Distribution [67.9215891673174]
離散空間に対するスコアマッチングを自然に拡張する新たな損失として,スコアエントロピーを提案する。
標準言語モデリングタスク上で,Score Entropy Discrete Diffusionモデルをテストする。
論文 参考訳(メタデータ) (2023-10-25T17:59:12Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Diffusion Models are Minimax Optimal Distribution Estimators [49.47503258639454]
拡散モデリングの近似と一般化能力について、初めて厳密な分析を行った。
実密度関数がベソフ空間に属し、経験値整合損失が適切に最小化されている場合、生成したデータ分布は、ほぼ最小の最適推定値が得られることを示す。
論文 参考訳(メタデータ) (2023-03-03T11:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。