論文の概要: Faster Diffusion Models via Higher-Order Approximation
- arxiv url: http://arxiv.org/abs/2506.24042v1
- Date: Mon, 30 Jun 2025 16:49:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.161901
- Title: Faster Diffusion Models via Higher-Order Approximation
- Title(参考訳): 高次近似による高速拡散モデル
- Authors: Gen Li, Yuchen Zhou, Yuting Wei, Yuxin Chen,
- Abstract要約: 本稿では,d1+2/K varepsilon-1/K$$のスコア関数評価のみを必要とする,原則付き無トレーニングサンプリングアルゴリズムを提案する。
我々の理論はロバストなvis-a-vis不正確なスコア推定であり、スコア推定誤差が増加するにつれて優雅に劣化する。
- 参考スコア(独自算出の注目度): 28.824924809206255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we explore provable acceleration of diffusion models without any additional retraining. Focusing on the task of approximating a target data distribution in $\mathbb{R}^d$ to within $\varepsilon$ total-variation distance, we propose a principled, training-free sampling algorithm that requires only the order of $$ d^{1+2/K} \varepsilon^{-1/K} $$ score function evaluations (up to log factor) in the presence of accurate scores, where $K$ is an arbitrarily large fixed integer. This result applies to a broad class of target data distributions, without the need for assumptions such as smoothness or log-concavity. Our theory is robust vis-a-vis inexact score estimation, degrading gracefully as the score estimation error increases -- without demanding higher-order smoothness on the score estimates as assumed in previous work. The proposed algorithm draws insight from high-order ODE solvers, leveraging high-order Lagrange interpolation and successive refinement to approximate the integral derived from the probability flow ODE.
- Abstract(参考訳): 本稿では,さらなる再学習を伴わない拡散モデルの証明可能な加速について検討する。
目標データ分布を$\mathbb{R}^d$から$\varepsilon$の総偏差距離内で近似するタスクに焦点をあてて、$$$d^{1+2/K} \varepsilon^{-1/K} $$$スコア関数評価(対数係数まで)の順序のみを必要とする、原則的にトレーニング不要なサンプリングアルゴリズムを提案する。
この結果は、スムーズさやログの凹凸といった仮定を必要とせず、対象とするデータ分布の幅広いクラスに適用できる。
我々の理論はロバストなvis-a-vis不正確なスコア推定であり、スコア推定誤差が増加するにつれて優雅に劣化する。
提案アルゴリズムは,高次ラグランジュ補間と逐次精製を利用して,確率フローODEから導出される積分を近似することにより,高次ODEソルバからの洞察を引き出す。
関連論文リスト
- Fast Convergence for High-Order ODE Solvers in Diffusion Probabilistic Models [5.939858158928473]
拡散確率モデルは、データをノイズに変換するノイズ注入プロセスの逆転を学ぶことでサンプルを生成する。
この逆過程を決定論的確率フロー常微分方程式(ODE)として再構成することで、高次解法を用いた効率的なサンプリングが可能になる。
スコア関数は一般的にニューラルネットワークによって近似されるため、全体のサンプリング精度を理解する上では、その正則性、近似誤差、数値積分誤差の相互作用を分析することが重要である。
論文 参考訳(メタデータ) (2025-06-16T03:09:25Z) - O(d/T) Convergence Theory for Diffusion Probabilistic Models under Minimal Assumptions [6.76974373198208]
最小の仮定の下で,拡散確率モデル(DDPM)の高速収束理論を確立する。
収束率は$O(k/T)$に改善され、$k$は対象データ分布の内在次元であることを示す。
これはDDPMが未知の低次元構造に自動的に適応する能力を強調している。
論文 参考訳(メタデータ) (2024-09-27T17:59:10Z) - A Sharp Convergence Theory for The Probability Flow ODEs of Diffusion Models [45.60426164657739]
拡散型サンプリング器の非漸近収束理論を開発する。
我々は、$d/varepsilon$がターゲット分布を$varepsilon$トータル偏差距離に近似するのに十分であることを証明した。
我々の結果は、$ell$のスコア推定誤差がデータ生成プロセスの品質にどのように影響するかも特徴付ける。
論文 参考訳(メタデータ) (2024-08-05T09:02:24Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。