論文の概要: Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models
- arxiv url: http://arxiv.org/abs/2306.09251v1
- Date: Thu, 15 Jun 2023 16:30:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 13:57:44.110687
- Title: Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models
- Title(参考訳): 拡散型生成モデルにおける非漸近収束の高速化に向けて
- Authors: Gen Li, Yuting Wei, Yuxin Chen, Yuejie Chi
- Abstract要約: 本研究では,拡散モデルのデータ生成過程を離散時間で理解するために,非漸近理論のスイートを開発する。
収束率は1/sqrtT$に比例し、最先端の理論と一致する。
2つの加速変種を設計し、その収束性を改善してODEベースのサンプルラーに1/T2$、DDPMタイプのサンプルラーに1/T$とする。
- 参考スコア(独自算出の注目度): 50.38446482252857
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models, which convert noise into new data instances by learning to
reverse a Markov diffusion process, have become a cornerstone in contemporary
generative modeling. While their practical power has now been widely
recognized, the theoretical underpinnings remain far from mature. In this work,
we develop a suite of non-asymptotic theory towards understanding the data
generation process of diffusion models in discrete time, assuming access to
reliable estimates of the (Stein) score functions. For a popular deterministic
sampler (based on the probability flow ODE), we establish a convergence rate
proportional to $1/T$ (with $T$ the total number of steps), improving upon past
results; for another mainstream stochastic sampler (i.e., a type of the
denoising diffusion probabilistic model (DDPM)), we derive a convergence rate
proportional to $1/\sqrt{T}$, matching the state-of-the-art theory. Our theory
imposes only minimal assumptions on the target data distribution (e.g., no
smoothness assumption is imposed), and is developed based on an elementary yet
versatile non-asymptotic approach without resorting to toolboxes for SDEs and
ODEs. Further, we design two accelerated variants, improving the convergence to
$1/T^2$ for the ODE-based sampler and $1/T$ for the DDPM-type sampler, which
might be of independent theoretical and empirical interest.
- Abstract(参考訳): マルコフ拡散過程を逆転するために学習することでノイズを新しいデータインスタンスに変換する拡散モデルは、現代の生成モデリングの基盤となっている。
実用的能力は広く認識されているが、理論的基盤は成熟していない。
本研究では,(スタイン)スコア関数の信頼できる推定へのアクセスを前提として,離散時間における拡散モデルのデータ生成過程を理解するための非漸近的理論の一組を開発する。
一般的な決定論的サンプル(確率フロー ode に基づく)に対して、1/t$ に比例する収束率(ステップの総数 t$ で)を確立し、過去の結果を改善し、また別の主流の確率的サンプル(英語版)(denoising diffusion probabilistic model (ddpm) の一種)に対して、1/\sqrt{t}$ に比例する収束率を導出し、最先端理論に合致する。
本理論は対象データ分布に最小限の仮定(例えば、滑らかさの仮定を課さない)のみを課し、sdesやodeのツールボックスに頼らずに、初等で汎用的な非漸近的アプローチに基づいて開発する。
さらに、2つの加速変種を設計し、その収束性を改善してODE-based samplerに1/T^2$、DDPM-type samplerに1/T$とする。
関連論文リスト
- Improved Convergence Rate for Diffusion Probabilistic Models [7.237817437521988]
スコアベース拡散モデルは、機械学習と人工知能の分野で顕著な経験的性能を達成した。
多くの理論的な試みにもかかわらず、理論と実践の間には大きなギャップがある。
繰り返しの複雑性を$d2/3varepsilon-2/3$とすると、$d5/12varepsilon-1$よりよい。
我々の理論は、$varepsilon$-accurate score estimatesを許容し、ターゲット分布の対数共振を必要としない。
論文 参考訳(メタデータ) (2024-10-17T16:37:33Z) - $O(d/T)$ Convergence Theory for Diffusion Probabilistic Models under Minimal Assumptions [6.76974373198208]
我々は、最小限の仮定の下で、人気のあるSDEベースのサンプルラーに対して高速収束理論を確立する。
解析の結果, スコア関数の$ell_2$-accurate推定値が与えられた場合, 対象分布と生成分布の総変動距離は$O(d/T)$で上限値となることがわかった。
これは、逆プロセスの各ステップでエラーがどのように伝播するかの詳細な特徴を提供する、新しい分析ツールセットによって達成される。
論文 参考訳(メタデータ) (2024-09-27T17:59:10Z) - Non-asymptotic bounds for forward processes in denoising diffusions: Ornstein-Uhlenbeck is hard to beat [49.1574468325115]
本稿では,全変動(TV)における前方拡散誤差の非漸近的境界について述べる。
我々は、R$からFarthestモードまでの距離でマルチモーダルデータ分布をパラメライズし、加法的および乗法的雑音による前方拡散を考察する。
論文 参考訳(メタデータ) (2024-08-25T10:28:31Z) - A Sharp Convergence Theory for The Probability Flow ODEs of Diffusion Models [45.60426164657739]
拡散型サンプリング器の非漸近収束理論を開発する。
我々は、$d/varepsilon$がターゲット分布を$varepsilon$トータル偏差距離に近似するのに十分であることを証明した。
我々の結果は、$ell$のスコア推定誤差がデータ生成プロセスの品質にどのように影響するかも特徴付ける。
論文 参考訳(メタデータ) (2024-08-05T09:02:24Z) - Accelerating Convergence of Score-Based Diffusion Models, Provably [44.11766377798812]
スコアベース拡散モデルはしばしばサンプリングフェーズで必要とされる広範な機能評価のためにサンプリング速度の低下に悩まされる。
我々は、一般的な決定論的(DDIM)および(DDPM)サンプリングを高速化する、新しいトレーニングフリーアルゴリズムを設計する。
我々の理論は、$ell$-accurate score estimatesを許容し、ターゲット分布に対数凹凸や滑らかさを必要としない。
論文 参考訳(メタデータ) (2024-03-06T17:02:39Z) - Discrete Diffusion Modeling by Estimating the Ratios of the Data Distribution [67.9215891673174]
離散空間に対するスコアマッチングを自然に拡張する新たな損失として,スコアエントロピーを提案する。
標準言語モデリングタスク上で,Score Entropy Discrete Diffusionモデルをテストする。
論文 参考訳(メタデータ) (2023-10-25T17:59:12Z) - A Geometric Perspective on Diffusion Models [57.27857591493788]
本稿では,人気のある分散拡散型SDEのODEに基づくサンプリングについて検討する。
我々は、最適なODEベースのサンプリングと古典的な平均シフト(モード探索)アルゴリズムの理論的関係を確立する。
論文 参考訳(メタデータ) (2023-05-31T15:33:16Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。