論文の概要: Generalization Properties of Score-matching Diffusion Models for Intrinsically Low-dimensional Data
- arxiv url: http://arxiv.org/abs/2603.03700v1
- Date: Wed, 04 Mar 2026 03:59:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.175035
- Title: Generalization Properties of Score-matching Diffusion Models for Intrinsically Low-dimensional Data
- Title(参考訳): 固有低次元データに対するスコアマッチング拡散モデルの一般化特性
- Authors: Saptarshi Chakraborty, Quentin Berthet, Peter L. Bartlett,
- Abstract要約: 有限個のサンプルから未知分布の$$を学習するためのスコアベース拡散モデルの統計的収束について検討する。
以上の結果から,拡散モデルがデータ固有の幾何学に自然に適応していることが示唆された。
我々の理論は, 拡散モデルの解析を, GANと最適輸送で確立された急激なミニマックス速度で橋渡しするものである。
- 参考スコア(独自算出の注目度): 32.72306410557258
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the remarkable empirical success of score-based diffusion models, their statistical guarantees remain underdeveloped. Existing analyses often provide pessimistic convergence rates that do not reflect the intrinsic low-dimensional structure common in real data, such as that arising in natural images. In this work, we study the statistical convergence of score-based diffusion models for learning an unknown distribution $μ$ from finitely many samples. Under mild regularity conditions on the forward diffusion process and the data distribution, we derive finite-sample error bounds on the learned generative distribution, measured in the Wasserstein-$p$ distance. Unlike prior results, our guarantees hold for all $p \ge 1$ and require only a finite-moment assumption on $μ$, without compact-support, manifold, or smooth-density conditions. Specifically, given $n$ i.i.d.\ samples from $μ$ with finite $q$-th moment and appropriately chosen network architectures, hyperparameters, and discretization schemes, we show that the expected Wasserstein-$p$ error between the learned distribution $\hatμ$ and $μ$ scales as $\mathbb{E}\, \mathbb{W}_p(\hatμ,μ) = \widetilde{O}\!\left(n^{-1 / d^\ast_{p,q}(μ)}\right),$ where $d^\ast_{p,q}(μ)$ is the $(p,q)$-Wasserstein dimension of $μ$. Our results demonstrate that diffusion models naturally adapt to the intrinsic geometry of data and mitigate the curse of dimensionality, since the convergence rate depends on $d^\ast_{p,q}(μ)$ rather than the ambient dimension. Moreover, our theory conceptually bridges the analysis of diffusion models with that of GANs and the sharp minimax rates established in optimal transport. The proposed $(p,q)$-Wasserstein dimension also extends classical Wasserstein dimension notions to distributions with unbounded support, which may be of independent theoretical interest.
- Abstract(参考訳): スコアベース拡散モデルの顕著な経験的成功にもかかわらず、それらの統計的保証は未発達のままである。
既存の分析は、自然画像のような実データに共通する本質的な低次元構造を反映しない悲観的収束率を与えることが多い。
本研究では,有限個のサンプルから未知分布の$μ$を学習するためのスコアベース拡散モデルの統計的収束について検討する。
前方拡散過程とデータ分布に関する穏やかな規則性条件の下では、ワッサーシュタイン-$p$距離で測定された学習された生成分布上の有限サンプル誤差境界を導出する。
以前の結果とは異なり、我々の保証はすべての$p \ge 1$ を保ち、コンパクトな支持、多様体、あるいは滑らかな密度条件なしで、$μ$ 上の有限モーメントの仮定しか必要としない。
具体的には、$n$ i.i.d.\サンプルが$μ$から有限$q$-秒のモーメントを持ち、適切に選択されたネットワークアーキテクチャ、ハイパーパラメータ、離散化スキームによって与えられると、学習した分布の$\hatμ$と$μ$スケールの間で期待されるWasserstein-$p$エラーが$\mathbb{E}\, \mathbb{W}_p(\hatμ,μ) = \widetilde{O}\!
\left(n^{-1 / d^\ast_{p,q}(μ)}\right),$ ここで$d^\ast_{p,q}(μ)$は$(p,q)$-ワッサーシュタイン次元$μ$である。
本結果は,拡散モデルがデータ固有の幾何学に自然に適応し,次元の呪いを軽減することを示し,収束速度は周囲次元よりも$d^\ast_{p,q}(μ)$に依存する。
さらに, この理論は, 拡散モデルとGANの拡散モデルの解析と, 最適輸送で確立された急激なミニマックス速度を橋渡しするものである。
提案された$(p,q)$-ワッサーシュタイン次元はまた、古典的なワッサーシュタイン次元の概念を非有界な分布に拡張する。
関連論文リスト
- Outsourced diffusion sampling: Efficient posterior inference in latent spaces of generative models [65.71506381302815]
本稿では、$p(mathbfxmidmathbfy) propto p_theta(mathbfx)$ という形式の後続分布からサンプリングするコストを償却する。
多くのモデルや制約に対して、後部ノイズ空間はデータ空間よりも滑らかであり、償却推論により適している。
論文 参考訳(メタデータ) (2025-02-10T19:49:54Z) - Dimension-free Private Mean Estimation for Anisotropic Distributions [55.86374912608193]
以前の$mathRd上の分布に関する民間推定者は、次元性の呪いに苦しむ。
本稿では,サンプルの複雑さが次元依存性を改善したアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-01T17:59:53Z) - Non-asymptotic bounds for forward processes in denoising diffusions: Ornstein-Uhlenbeck is hard to beat [49.1574468325115]
本稿では,全変動(TV)における前方拡散誤差の非漸近的境界について述べる。
我々は、R$からFarthestモードまでの距離でマルチモーダルデータ分布をパラメライズし、加法的および乗法的雑音による前方拡散を考察する。
論文 参考訳(メタデータ) (2024-08-25T10:28:31Z) - A Sharp Convergence Theory for The Probability Flow ODEs of Diffusion Models [45.60426164657739]
拡散型サンプリング器の非漸近収束理論を開発する。
我々は、$d/varepsilon$がターゲット分布を$varepsilon$トータル偏差距離に近似するのに十分であることを証明した。
我々の結果は、$ell$のスコア推定誤差がデータ生成プロセスの品質にどのように影響するかも特徴付ける。
論文 参考訳(メタデータ) (2024-08-05T09:02:24Z) - Convergence Analysis of Probability Flow ODE for Score-based Generative Models [5.939858158928473]
確率フローODEに基づく決定論的サンプリング器の収束特性を理論的・数値的両面から検討する。
連続時間レベルでは、ターゲットと生成されたデータ分布の総変動を$mathcalO(d3/4delta1/2)$で表すことができる。
論文 参考訳(メタデータ) (2024-04-15T12:29:28Z) - Minimax Optimality of Score-based Diffusion Models: Beyond the Density Lower Bound Assumptions [11.222970035173372]
カーネルベースのスコア推定器は$widetildeOleft(n-1 t-fracd+22(tfracd2 vee 1)rightの最適平均二乗誤差を達成する
核を用いたスコア推定器は,拡散モデルで生成した試料の分布の総変動誤差に対して,極小ガウスの下での最大平均2乗誤差を$widetildeOleft(n-1/2 t-fracd4right)$上界で達成することを示す。
論文 参考訳(メタデータ) (2024-02-23T20:51:31Z) - On the Statistical Properties of Generative Adversarial Models for Low Intrinsic Data Dimension [32.98264375121064]
我々は、データと潜伏空間の内在次元の観点から、推定密度に関する統計的保証を導出する。
我々は,非滑らかな分布においても,GANが最小値の最適値を効果的に達成できることを実証した。
論文 参考訳(メタデータ) (2024-01-28T23:18:10Z) - Nearly $d$-Linear Convergence Bounds for Diffusion Models via Stochastic
Localization [40.808942894229325]
データ次元において線形である第1収束境界を提供する。
拡散モデルは任意の分布を近似するために少なくとも$tilde O(fracd log2(1/delta)varepsilon2)$ stepsを必要とすることを示す。
論文 参考訳(メタデータ) (2023-08-07T16:01:14Z) - Effective Minkowski Dimension of Deep Nonparametric Regression: Function
Approximation and Statistical Theories [70.90012822736988]
ディープ非パラメトリック回帰に関する既存の理論は、入力データが低次元多様体上にある場合、ディープニューラルネットワークは本質的なデータ構造に適応できることを示した。
本稿では,$mathcalS$で表される$mathbbRd$のサブセットに入力データが集中するという緩和された仮定を導入する。
論文 参考訳(メタデータ) (2023-06-26T17:13:31Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。