論文の概要: Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models
- arxiv url: http://arxiv.org/abs/2306.09251v3
- Date: Thu, 7 Mar 2024 03:30:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 18:18:09.840815
- Title: Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models
- Title(参考訳): 拡散型生成モデルにおける非漸近収束の高速化に向けて
- Authors: Gen Li, Yuting Wei, Yuxin Chen, Yuejie Chi
- Abstract要約: 我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
- 参考スコア(独自算出の注目度): 49.81937966106691
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models, which convert noise into new data instances by learning to
reverse a Markov diffusion process, have become a cornerstone in contemporary
generative modeling. While their practical power has now been widely
recognized, the theoretical underpinnings remain far from mature. In this work,
we develop a suite of non-asymptotic theory towards understanding the data
generation process of diffusion models in discrete time, assuming access to
$\ell_2$-accurate estimates of the (Stein) score functions. For a popular
deterministic sampler (based on the probability flow ODE), we establish a
convergence rate proportional to $1/T$ (with $T$ the total number of steps),
improving upon past results; for another mainstream stochastic sampler (i.e., a
type of the denoising diffusion probabilistic model), we derive a convergence
rate proportional to $1/\sqrt{T}$, matching the state-of-the-art theory.
Imposing only minimal assumptions on the target data distribution (e.g., no
smoothness assumption is imposed), our results characterize how $\ell_2$ score
estimation errors affect the quality of the data generation processes. In
contrast to prior works, our theory is developed based on an elementary yet
versatile non-asymptotic approach without resorting to toolboxes for SDEs and
ODEs. Further, we design two accelerated variants, improving the convergence to
$1/T^2$ for the ODE-based sampler and $1/T$ for the DDPM-type sampler, which
might be of independent theoretical and empirical interest.
- Abstract(参考訳): マルコフ拡散過程を逆転するために学習することでノイズを新しいデータインスタンスに変換する拡散モデルは、現代の生成モデリングの基盤となっている。
実用的能力は広く認識されているが、理論的基盤は成熟していない。
本研究では,拡散モデルのデータ生成過程を離散時間で理解するための漸近的でない理論の組を開発し,(Stein)スコア関数の$\ell_2$-accurate推定値へのアクセスを仮定する。
一般的な決定論的サンプリング器(確率フローODEに基づく)では、1/T$(ステップ総数$T$)に比例して収束率を確立し、過去の結果により改善し、他の主流確率的サンプリング器(例えば、偏微分確率モデルの一種)では、1/\sqrt{T}$に比例して収束率を導出し、最先端技術理論と整合する。
対象のデータ分布に最小限の仮定(例えば、滑らかさの仮定は課されない)を課すことで、結果が$\ell_2$スコア推定誤差がデータ生成プロセスの品質に与える影響を特徴づける。
従来の研究とは対照的に,本理論はSDEやODEのツールボックスに頼らずに,基本的かつ多目的な非漸近的アプローチに基づいて開発されている。
さらに、2つの加速変種を設計し、その収束性を改善してODE-based samplerに1/T^2$、DDPM-type samplerに1/T$とする。
関連論文リスト
- Improved Convergence Rate for Diffusion Probabilistic Models [7.237817437521988]
スコアベース拡散モデルは、機械学習と人工知能の分野で顕著な経験的性能を達成した。
多くの理論的な試みにもかかわらず、理論と実践の間には大きなギャップがある。
繰り返しの複雑性を$d2/3varepsilon-2/3$とすると、$d5/12varepsilon-1$よりよい。
我々の理論は、$varepsilon$-accurate score estimatesを許容し、ターゲット分布の対数共振を必要としない。
論文 参考訳(メタデータ) (2024-10-17T16:37:33Z) - $O(d/T)$ Convergence Theory for Diffusion Probabilistic Models under Minimal Assumptions [6.76974373198208]
我々は、最小限の仮定の下で、人気のあるSDEベースのサンプルラーに対して高速収束理論を確立する。
解析の結果, スコア関数の$ell_2$-accurate推定値が与えられた場合, 対象分布と生成分布の総変動距離は$O(d/T)$で上限値となることがわかった。
これは、逆プロセスの各ステップでエラーがどのように伝播するかの詳細な特徴を提供する、新しい分析ツールセットによって達成される。
論文 参考訳(メタデータ) (2024-09-27T17:59:10Z) - Non-asymptotic bounds for forward processes in denoising diffusions: Ornstein-Uhlenbeck is hard to beat [49.1574468325115]
本稿では,全変動(TV)における前方拡散誤差の非漸近的境界について述べる。
我々は、R$からFarthestモードまでの距離でマルチモーダルデータ分布をパラメライズし、加法的および乗法的雑音による前方拡散を考察する。
論文 参考訳(メタデータ) (2024-08-25T10:28:31Z) - A Sharp Convergence Theory for The Probability Flow ODEs of Diffusion Models [45.60426164657739]
拡散型サンプリング器の非漸近収束理論を開発する。
我々は、$d/varepsilon$がターゲット分布を$varepsilon$トータル偏差距離に近似するのに十分であることを証明した。
我々の結果は、$ell$のスコア推定誤差がデータ生成プロセスの品質にどのように影響するかも特徴付ける。
論文 参考訳(メタデータ) (2024-08-05T09:02:24Z) - Accelerating Convergence of Score-Based Diffusion Models, Provably [44.11766377798812]
スコアベース拡散モデルはしばしばサンプリングフェーズで必要とされる広範な機能評価のためにサンプリング速度の低下に悩まされる。
我々は、一般的な決定論的(DDIM)および(DDPM)サンプリングを高速化する、新しいトレーニングフリーアルゴリズムを設計する。
我々の理論は、$ell$-accurate score estimatesを許容し、ターゲット分布に対数凹凸や滑らかさを必要としない。
論文 参考訳(メタデータ) (2024-03-06T17:02:39Z) - Discrete Diffusion Modeling by Estimating the Ratios of the Data Distribution [67.9215891673174]
離散空間に対するスコアマッチングを自然に拡張する新たな損失として,スコアエントロピーを提案する。
標準言語モデリングタスク上で,Score Entropy Discrete Diffusionモデルをテストする。
論文 参考訳(メタデータ) (2023-10-25T17:59:12Z) - A Geometric Perspective on Diffusion Models [57.27857591493788]
本稿では,人気のある分散拡散型SDEのODEに基づくサンプリングについて検討する。
我々は、最適なODEベースのサンプリングと古典的な平均シフト(モード探索)アルゴリズムの理論的関係を確立する。
論文 参考訳(メタデータ) (2023-05-31T15:33:16Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。