論文の概要: Fast Convergence for High-Order ODE Solvers in Diffusion Probabilistic Models
- arxiv url: http://arxiv.org/abs/2506.13061v2
- Date: Wed, 18 Jun 2025 14:18:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 13:10:45.362278
- Title: Fast Convergence for High-Order ODE Solvers in Diffusion Probabilistic Models
- Title(参考訳): 拡散確率モデルにおける高次ODE解の高速収束
- Authors: Daniel Zhengyu Huang, Jiaoyang Huang, Zhengjiang Lin,
- Abstract要約: 拡散確率モデルは、データをノイズに変換するノイズ注入プロセスの逆転を学ぶことでサンプルを生成する。
この逆過程を決定論的確率フロー常微分方程式(ODE)として再構成することで、高次解法を用いた効率的なサンプリングが可能になる。
スコア関数は一般的にニューラルネットワークによって近似されるため、全体のサンプリング精度を理解する上では、その正則性、近似誤差、数値積分誤差の相互作用を分析することが重要である。
- 参考スコア(独自算出の注目度): 5.939858158928473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion probabilistic models generate samples by learning to reverse a noise-injection process that transforms data into noise. Reformulating this reverse process as a deterministic probability flow ordinary differential equation (ODE) enables efficient sampling using high-order solvers, often requiring only $\mathcal{O}(10)$ steps. Since the score function is typically approximated by a neural network, analyzing the interaction between its regularity, approximation error, and numerical integration error is key to understanding the overall sampling accuracy. In this work, we continue our analysis of the convergence properties of the deterministic sampling methods derived from probability flow ODEs [25], focusing on $p$-th order (exponential) Runge-Kutta schemes for any integer $p \geq 1$. Under the assumption that the first and second derivatives of the approximate score function are bounded, we develop $p$-th order (exponential) Runge-Kutta schemes and demonstrate that the total variation distance between the target distribution and the generated data distribution can be bounded above by \begin{align*} O\bigl(d^{\frac{7}{4}}\varepsilon_{\text{score}}^{\frac{1}{2}} +d(dH_{\max})^p\bigr), \end{align*} where $\varepsilon^2_{\text{score}}$ denotes the $L^2$ error in the score function approximation, $d$ is the data dimension and $H_{\max}$ represents the maximum step size used in the solver. We numerically verify the regularity assumption on benchmark datasets, confirming that the first and second derivatives of the approximate score function remain bounded in practice. Our theoretical guarantees hold for general forward processes with arbitrary variance schedules.
- Abstract(参考訳): 拡散確率モデルは、データをノイズに変換するノイズ注入プロセスの逆転を学ぶことでサンプルを生成する。
この逆過程を決定論的確率フロー常微分方程式(ODE)として再構成することで、高次解法を用いる効率的なサンプリングが可能となり、しばしば$\mathcal{O}(10)$のステップしか必要としない。
スコア関数は一般的にニューラルネットワークによって近似されるため、全体のサンプリング精度を理解する上では、その正則性、近似誤差、数値積分誤差の相互作用を分析することが重要である。
本研究では,確率フローODEs[25]から導かれる決定論的サンプリング手法の収束特性の解析を継続し,任意の整数$p \geq 1$に対する$p$-次(指数)ルンゲ・クッタスキームに着目した。
近似スコア関数の第1次および第2次微分が有界であるという仮定の下で、ルンゲ・クッタスキーム(英語版)(Runge-Kutta schemes)を開発し、対象分布と生成されたデータ分布の間の全変動距離を、上述の \begin{align*} O\bigl(d^{\frac{7}{4}}\varepsilon_{\text{score}}^{\frac{1}{2}} +d(dH_{\max})^p\bigr), \end{align*} ここで、$\varepsilon^2_{\text{score}}$はスコア関数近似における$L^2$エラーを表す。
ベンチマークデータセット上での正則性仮定を数値的に検証し、近似スコア関数の第1および第2微分が実際に有界であることを確認する。
我々の理論的保証は、任意の分散スケジュールを持つ一般的なフォワードプロセスに対して成り立つ。
関連論文リスト
- A Sharp Convergence Theory for The Probability Flow ODEs of Diffusion Models [45.60426164657739]
拡散型サンプリング器の非漸近収束理論を開発する。
我々は、$d/varepsilon$がターゲット分布を$varepsilon$トータル偏差距離に近似するのに十分であることを証明した。
我々の結果は、$ell$のスコア推定誤差がデータ生成プロセスの品質にどのように影響するかも特徴付ける。
論文 参考訳(メタデータ) (2024-08-05T09:02:24Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Convergence Analysis of Probability Flow ODE for Score-based Generative Models [5.939858158928473]
確率フローODEに基づく決定論的サンプリング器の収束特性を理論的・数値的両面から検討する。
連続時間レベルでは、ターゲットと生成されたデータ分布の総変動を$mathcalO(d3/4delta1/2)$で表すことができる。
論文 参考訳(メタデータ) (2024-04-15T12:29:28Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Improved Analysis of Score-based Generative Modeling: User-Friendly
Bounds under Minimal Smoothness Assumptions [9.953088581242845]
2次モーメントを持つ任意のデータ分布に対して,コンバージェンス保証と複雑性を提供する。
我々の結果は、対数共空性や機能的不等式を前提としない。
我々の理論解析は、異なる離散近似の比較を提供し、実際の離散化点の選択を導くかもしれない。
論文 参考訳(メタデータ) (2022-11-03T15:51:00Z) - Statistical Inference of Constrained Stochastic Optimization via Sketched Sequential Quadratic Programming [53.63469275932989]
制約付き非線形最適化問題のオンライン統計的推測を考察する。
これらの問題を解決するために、逐次二次計画法(StoSQP)を適用する。
論文 参考訳(メタデータ) (2022-05-27T00:34:03Z) - Debiasing Distributed Second Order Optimization with Surrogate Sketching
and Scaled Regularization [101.5159744660701]
分散第2次最適化において、標準的な戦略は、データの小さなスケッチやバッチに基づいて、多くの局所的な見積もりを平均化することである。
本稿では,分散二階法における収束率の理論的および実証的改善を両立させるため,局所的な推定を嫌悪する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-02T18:08:14Z) - Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and
Variance Reduction [63.41789556777387]
非同期Q-ラーニングはマルコフ決定過程(MDP)の最適行動値関数(またはQ-関数)を学習することを目的としている。
Q-関数の入出力$varepsilon$-正確な推定に必要なサンプルの数は、少なくとも$frac1mu_min (1-gamma)5varepsilon2+ fract_mixmu_min (1-gamma)$の順である。
論文 参考訳(メタデータ) (2020-06-04T17:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。