論文の概要: Incremental Generation is Necessity and Sufficient for Universality in Flow-Based Modelling
- arxiv url: http://arxiv.org/abs/2511.09902v1
- Date: Fri, 14 Nov 2025 01:17:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.563725
- Title: Incremental Generation is Necessity and Sufficient for Universality in Flow-Based Modelling
- Title(参考訳): フローベースモデリングにおけるインクリメンタル生成の必要性と普遍性
- Authors: Hossein Rouhvarzi, Anastasis Kratsios,
- Abstract要約: 最大自然クラス自己マップ上でのフローベース生成にはインクリメンタルな生成が必要で十分であることを示す。
すべての保証は、基礎となる写像上で一様であり、したがって、標本と分布の両方において近似を暗示する。
- 参考スコア(独自算出の注目度): 11.567712665172474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Incremental flow-based denoising models have reshaped generative modelling, but their empirical advantage still lacks a rigorous approximation-theoretic foundation. We show that incremental generation is necessary and sufficient for universal flow-based generation on the largest natural class of self-maps of $[0,1]^d$ compatible with denoising pipelines, namely the orientation-preserving homeomorphisms of $[0,1]^d$. All our guarantees are uniform on the underlying maps and hence imply approximation both samplewise and in distribution. Using a new topological-dynamical argument, we first prove an impossibility theorem: the class of all single-step autonomous flows, independently of the architecture, width, depth, or Lipschitz activation of the underlying neural network, is meagre and therefore not universal in the space of orientation-preserving homeomorphisms of $[0,1]^d$. By exploiting algebraic properties of autonomous flows, we conversely show that every orientation-preserving Lipschitz homeomorphism on $[0,1]^d$ can be approximated at rate $\mathcal{O}(n^{-1/d})$ by a composition of at most $K_d$ such flows, where $K_d$ depends only on the dimension. Under additional smoothness assumptions, the approximation rate can be made dimension-free, and $K_d$ can be chosen uniformly over the class being approximated. Finally, by linearly lifting the domain into one higher dimension, we obtain structured universal approximation results for continuous functions and for probability measures on $[0,1]^d$, the latter realized as pushforwards of empirical measures with vanishing $1$-Wasserstein error.
- Abstract(参考訳): インクリメンタルフローに基づく復調モデルでは生成モデルが再形成されているが、その経験的優位性は厳密な近似理論の基礎を欠いている。
インクリメンタルな生成は、最大自然クラスである$[0,1]^d$とデノナイジングパイプラインとの整合性、すなわち$[0,1]^d$の配向保存同型に対して必要で十分であることを示す。
すべての保証は、基礎となる写像上で一様であり、したがって、標本と分布の両方において近似を暗示する。
ニューラルネットワークのアーキテクチャ、幅、深さ、リプシッツの活性化とは無関係に、全ての単段階の自律フローのクラスは可測であり、従って、[0,1]^d$の向きを保つ同型空間では普遍的ではない。
自己フローの代数的性質を利用することにより、$[0,1]^d$ 上のすべての配向保存リプシッツ準同型が $\mathcal{O}(n^{-1/d})$ で近似できることを示す。
さらなる滑らかさの仮定の下では、近似率を次元自由とし、近似されるクラスに対して$K_d$を均一に選択することができる。
最後に、領域を1つの高次元に線形に持ち上げることで、連続関数と、$[0,1]^d$の確率測度に対して構造化された普遍近似結果を得る。
関連論文リスト
- Bridging the Gap Between Approximation and Learning via Optimal Approximation by ReLU MLPs of Maximal Regularity [8.28720658988688]
例えば、$(L,alpha)$-H"older関数は、$mathcalO(dnd/alpha)$, of width $mathcalO(dnd/alpha)$, depth $mathcalO(log(d))$, with $mathcalO(dnd/alpha)$, $mathcalO(dnd/alpha)$, and $mathcalO(dnd/alpha)$, with $mathcal。
論文 参考訳(メタデータ) (2024-09-18T22:05:07Z) - Constructive Universal Approximation and Finite Sample Memorization by Narrow Deep ReLU Networks [0.0]
我々は$N$の異なる点を持つデータセットが$mathbbRd$と$M$の出力クラスを正確に分類できることを示した。
また、任意の有界領域に対して$Lp(Omega; mathbbRm)$の普遍近似定理も証明する。
我々の結果は、深層ニューラルネットワークにおける制御性、表現性、およびトレーニングのダイナミクスを接続する統一的で解釈可能なフレームワークを提供する。
論文 参考訳(メタデータ) (2024-09-10T14:31:21Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Approximation Rates and VC-Dimension Bounds for (P)ReLU MLP Mixture of Experts [17.022107735675046]
Mixture-of-Experts(MoEs)は、従来のディープラーニングモデルを越えてスケールアップすることができる。
MoMLPモデル全体のVC次元が$tildeO(LmaxnL,JW)$であるので、MoMLPが一般化可能であることを示す。
論文 参考訳(メタデータ) (2024-02-05T19:11:57Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Equivariant Discrete Normalizing Flows [10.867162810786361]
離散層を用いた等変正規化フローの構築に着目する。
2つの新しい同変フロー:$G$-カップリングフローと$G$-Residualフローを導入する。
我々の構成である$G$-Residual Flowsも普遍的であり、$G$-equivariant diffeomorphismが$G$-Residual Flowによって正確にマッピング可能であることを証明している。
論文 参考訳(メタデータ) (2021-10-16T20:16:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。