論文の概要: Incremental Generation is Necessity and Sufficient for Universality in Flow-Based Modelling
- arxiv url: http://arxiv.org/abs/2511.09902v1
- Date: Fri, 14 Nov 2025 01:17:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.563725
- Title: Incremental Generation is Necessity and Sufficient for Universality in Flow-Based Modelling
- Title(参考訳): フローベースモデリングにおけるインクリメンタル生成の必要性と普遍性
- Authors: Hossein Rouhvarzi, Anastasis Kratsios,
- Abstract要約: 最大自然クラス自己マップ上でのフローベース生成にはインクリメンタルな生成が必要で十分であることを示す。
すべての保証は、基礎となる写像上で一様であり、したがって、標本と分布の両方において近似を暗示する。
- 参考スコア(独自算出の注目度): 11.567712665172474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Incremental flow-based denoising models have reshaped generative modelling, but their empirical advantage still lacks a rigorous approximation-theoretic foundation. We show that incremental generation is necessary and sufficient for universal flow-based generation on the largest natural class of self-maps of $[0,1]^d$ compatible with denoising pipelines, namely the orientation-preserving homeomorphisms of $[0,1]^d$. All our guarantees are uniform on the underlying maps and hence imply approximation both samplewise and in distribution. Using a new topological-dynamical argument, we first prove an impossibility theorem: the class of all single-step autonomous flows, independently of the architecture, width, depth, or Lipschitz activation of the underlying neural network, is meagre and therefore not universal in the space of orientation-preserving homeomorphisms of $[0,1]^d$. By exploiting algebraic properties of autonomous flows, we conversely show that every orientation-preserving Lipschitz homeomorphism on $[0,1]^d$ can be approximated at rate $\mathcal{O}(n^{-1/d})$ by a composition of at most $K_d$ such flows, where $K_d$ depends only on the dimension. Under additional smoothness assumptions, the approximation rate can be made dimension-free, and $K_d$ can be chosen uniformly over the class being approximated. Finally, by linearly lifting the domain into one higher dimension, we obtain structured universal approximation results for continuous functions and for probability measures on $[0,1]^d$, the latter realized as pushforwards of empirical measures with vanishing $1$-Wasserstein error.
- Abstract(参考訳): インクリメンタルフローに基づく復調モデルでは生成モデルが再形成されているが、その経験的優位性は厳密な近似理論の基礎を欠いている。
インクリメンタルな生成は、最大自然クラスである$[0,1]^d$とデノナイジングパイプラインとの整合性、すなわち$[0,1]^d$の配向保存同型に対して必要で十分であることを示す。
すべての保証は、基礎となる写像上で一様であり、したがって、標本と分布の両方において近似を暗示する。
ニューラルネットワークのアーキテクチャ、幅、深さ、リプシッツの活性化とは無関係に、全ての単段階の自律フローのクラスは可測であり、従って、[0,1]^d$の向きを保つ同型空間では普遍的ではない。
自己フローの代数的性質を利用することにより、$[0,1]^d$ 上のすべての配向保存リプシッツ準同型が $\mathcal{O}(n^{-1/d})$ で近似できることを示す。
さらなる滑らかさの仮定の下では、近似率を次元自由とし、近似されるクラスに対して$K_d$を均一に選択することができる。
最後に、領域を1つの高次元に線形に持ち上げることで、連続関数と、$[0,1]^d$の確率測度に対して構造化された普遍近似結果を得る。
関連論文リスト
- Generalization Properties of Score-matching Diffusion Models for Intrinsically Low-dimensional Data [32.72306410557258]
有限個のサンプルから未知分布の$$を学習するためのスコアベース拡散モデルの統計的収束について検討する。
以上の結果から,拡散モデルがデータ固有の幾何学に自然に適応していることが示唆された。
我々の理論は, 拡散モデルの解析を, GANと最適輸送で確立された急激なミニマックス速度で橋渡しするものである。
論文 参考訳(メタデータ) (2026-03-04T03:59:02Z) - Anisotropic local law for non-separable sample covariance matrices [10.181748307494608]
サンプル共分散行列の局所法則を$K = N-1sum_i=1N g_ig_ig_i*$ とすると、Rn$ の確率ベクトル $g_1, ldots, g_N は共通共分散$$と独立である。
我々は,条件付き平均ゼロ分布,ランダム特徴モデル$g = (Xw)$,ガウス測度など,我々の仮定を満たす非分離例のクラスについて論じる。
論文 参考訳(メタデータ) (2026-02-20T03:28:51Z) - Optimal Unconstrained Self-Distillation in Ridge Regression: Strict Improvements, Precise Asymptotics, and One-Shot Tuning [61.07540493350384]
自己蒸留(英: Self-distillation, SD)とは、教師自身の予測と地道の混合で学生を訓練する過程である。
任意の予測リスクに対して、各正規化レベルにおいて、最適に混合された学生がリッジ教師に改善されることが示される。
本稿では,グリッド探索やサンプル分割,再構成なしに$star$を推定する一貫したワンショットチューニング手法を提案する。
論文 参考訳(メタデータ) (2026-02-19T17:21:15Z) - Analytic Bijections for Smooth and Interpretable Normalizing Flows [0.0]
ラジアルフローは、例外的な訓練安定性を示し、幾何学的に解釈可能な変換を生成し、ラジアル構造を持つターゲット上では、1,000時間以下で結合フローに匹敵する品質を達成できる。
我々は,1次元および2次元のベンチマークを総合的に評価し,4ドルの格子場理論の実験を通じて高次元物理学問題への適用性を実証する。
論文 参考訳(メタデータ) (2026-01-15T16:09:02Z) - Parameter-free Algorithms for the Stochastically Extended Adversarial Model [59.81852138768642]
拡張逆数(SEA)モデルの既存のアプローチは、ドメインの直径$D$や損失関数のリプシッツ定数$G$といった問題固有のパラメータの事前知識を必要とする。
パラメータを不要にするためにOptimistic Online Newton Step (OONS) アルゴリズムを利用するパラメータフリー手法を開発した。
論文 参考訳(メタデータ) (2025-10-06T10:53:37Z) - Near-Optimal Clustering in Mixture of Markov Chains [74.3828414695655]
我々は、長さ$H$の軌跡を、大きさ$S$の有限状態空間上の未知のエルゴードマルコフ鎖の1つによって生成される、$T$ trajectories of length $H$の問題を研究する。
我々は、連鎖の遷移核間の重み付きKL分散によって支配されるクラスタリングエラー率に基づいて、インスタンス依存で高い確率の低い境界を導出する。
次に,新しい2段階クラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-06-02T05:10:40Z) - Bridging the Gap Between Approximation and Learning via Optimal Approximation by ReLU MLPs of Maximal Regularity [8.28720658988688]
例えば、$(L,alpha)$-H"older関数は、$mathcalO(dnd/alpha)$, of width $mathcalO(dnd/alpha)$, depth $mathcalO(log(d))$, with $mathcalO(dnd/alpha)$, $mathcalO(dnd/alpha)$, and $mathcalO(dnd/alpha)$, with $mathcal。
論文 参考訳(メタデータ) (2024-09-18T22:05:07Z) - Constructive Universal Approximation and Finite Sample Memorization by Narrow Deep ReLU Networks [0.0]
我々は$N$の異なる点を持つデータセットが$mathbbRd$と$M$の出力クラスを正確に分類できることを示した。
また、任意の有界領域に対して$Lp(Omega; mathbbRm)$の普遍近似定理も証明する。
我々の結果は、深層ニューラルネットワークにおける制御性、表現性、およびトレーニングのダイナミクスを接続する統一的で解釈可能なフレームワークを提供する。
論文 参考訳(メタデータ) (2024-09-10T14:31:21Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Approximation Rates and VC-Dimension Bounds for (P)ReLU MLP Mixture of Experts [17.022107735675046]
Mixture-of-Experts(MoEs)は、従来のディープラーニングモデルを越えてスケールアップすることができる。
MoMLPモデル全体のVC次元が$tildeO(LmaxnL,JW)$であるので、MoMLPが一般化可能であることを示す。
論文 参考訳(メタデータ) (2024-02-05T19:11:57Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Equivariant Discrete Normalizing Flows [10.867162810786361]
離散層を用いた等変正規化フローの構築に着目する。
2つの新しい同変フロー:$G$-カップリングフローと$G$-Residualフローを導入する。
我々の構成である$G$-Residual Flowsも普遍的であり、$G$-equivariant diffeomorphismが$G$-Residual Flowによって正確にマッピング可能であることを証明している。
論文 参考訳(メタデータ) (2021-10-16T20:16:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。