論文の概要: Diffusion Models with Heavy-Tailed Targets: Score Estimation and Sampling Guarantees
- arxiv url: http://arxiv.org/abs/2601.06715v1
- Date: Sat, 10 Jan 2026 23:05:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.951965
- Title: Diffusion Models with Heavy-Tailed Targets: Score Estimation and Sampling Guarantees
- Title(参考訳): 重機目標付き拡散モデル:スコア推定とサンプリング保証
- Authors: Yifeng Yu, Lu Yu,
- Abstract要約: 目標分布の重み付け時のスコアベース拡散モデルについて検討する。
スコア推定のためのシャープなミニマックスレートを導出し、二分法を明らかにした。
総変量では、ミニマックス最適率$n-/(2+d)$で、指数的な尾の下では$$依存率で生成される分布が生成される。
- 参考スコア(独自算出の注目度): 8.437829850850358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Score-based diffusion models have become a powerful framework for generative modeling, with score estimation as a central statistical bottleneck. Existing guarantees for score estimation largely focus on light-tailed targets or rely on restrictive assumptions such as compact support, which are often violated by heavy-tailed data in practice. In this work, we study conventional (Gaussian) score-based diffusion models when the target distribution is heavy-tailed and belongs to a Sobolev class with smoothness parameter $β>0$. We consider both exponential and polynomial tail decay, indexed by a tail parameter $γ$. Using kernel density estimation, we derive sharp minimax rates for score estimation, revealing a qualitative dichotomy: under exponential tails, the rate matches the light-tailed case up to polylogarithmic factors, whereas under polynomial tails the rate depends explicitly on $γ$. We further provide sampling guarantees for the associated continuous reverse dynamics. In total variation, the generated distribution converges at the minimax optimal rate $n^{-β/(2β+d)}$ under exponential tails (up to logarithmic factors), and at a $γ$-dependent rate under polynomial tails. Whether the latter sampling rate is minimax optimal remains an open question. These results characterize the statistical limits of score estimation and the resulting sampling accuracy for heavy-tailed targets, extending diffusion theory beyond the light-tailed setting.
- Abstract(参考訳): スコアベース拡散モデルが生成モデリングの強力なフレームワークとなり、スコア推定が中心的な統計的ボトルネックとなっている。
既存のスコア推定の保証は、主に軽量な目標に焦点をあてたり、コンパクトなサポートのような制限された仮定に依存している。
本研究では,目標分布が重く,滑らか度パラメータが$β>0$のソボレフクラスに属する場合の従来の(ガウス)スコアベース拡散モデルについて検討する。
指数的および多項式的テール減衰を、テールパラメータ$γ$で指数付けする。
カーネル密度推定を用いて、スコア推定のためのシャープなミニマックスレートを導出し、指数的尾根の下では、光尾のケースと多対数因子を一致させるが、多項式的尾根では、レートは明示的に$γ$に依存する。
さらに、関連する連続逆ダイナミクスのサンプリング保証を提供する。
総変量では、生成した分布は指数的尾根の下で(対数的因子まで)極小最大速度$n^{-β/(2β+d)}$に収束し、多項式尾根の下では$γ$依存率で収束する。
後者のサンプリングレートがミニマックス最適かどうかについては、未解決の問題である。
これらの結果は, スコア推定の統計的限界と, 重み付け目標に対するサンプリング精度を特徴付け, 拡散理論を光引き込み設定を超えて拡張した。
関連論文リスト
- Minimax Optimality of the Probability Flow ODE for Diffusion Models [8.15094483029656]
この研究は、決定論的ODEベースのサンプリングのための最初のエンドツーエンド理論フレームワークを開発する。
L2$のスコア誤差と関連する平均ジャコビアン誤差の両方を同時に制御するスムーズな正規化スコア推定器を提案する。
得られたサンプルは全変動距離, 変調対数係数において最小値が得られることを示す。
論文 参考訳(メタデータ) (2025-03-12T17:51:29Z) - Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
一般のスコアミスマッチ拡散サンプリング器に対する明示的な次元依存性を持つ最初の性能保証を示す。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - O(d/T) Convergence Theory for Diffusion Probabilistic Models under Minimal Assumptions [6.76974373198208]
最小の仮定の下で,拡散確率モデル(DDPM)の高速収束理論を確立する。
収束率は$O(k/T)$に改善され、$k$は対象データ分布の内在次元であることを示す。
これはDDPMが未知の低次元構造に自動的に適応する能力を強調している。
論文 参考訳(メタデータ) (2024-09-27T17:59:10Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - On diffusion-based generative models and their error bounds: The log-concave case with full convergence estimates [5.13323375365494]
我々は,強い対数対数データの下での拡散に基づく生成モデルの収束挙動を理論的に保証する。
スコア推定に使用される関数のクラスは、スコア関数上のリプシッツネスの仮定を避けるために、リプシッツ連続関数からなる。
この手法はサンプリングアルゴリズムにおいて最もよく知られた収束率をもたらす。
論文 参考訳(メタデータ) (2023-11-22T18:40:45Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。