論文の概要: Total Variation Rates for Riemannian Flow Matching
- arxiv url: http://arxiv.org/abs/2602.05174v1
- Date: Thu, 05 Feb 2026 01:06:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.690929
- Title: Total Variation Rates for Riemannian Flow Matching
- Title(参考訳): リーマン流マッチングにおける総変動率
- Authors: Yunrui Guan, Krishnakumar Balasubramanian, Shiqian Ma,
- Abstract要約: RFMサンプリングのための漸近的トータル変分解析法を開発した。
我々の重要な技術的要素は、2つの多様体ODEフロー間のTVの進化を管理する微分不等式である。
- 参考スコア(独自算出の注目度): 8.235086108564998
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Riemannian flow matching (RFM) extends flow-based generative modeling to data supported on manifolds by learning a time-dependent tangent vector field whose flow-ODE transports a simple base distribution to the data law. We develop a nonasymptotic Total Variation (TV) convergence analysis for RFM samplers that use a learned vector field together with Euler discretization on manifolds. Our key technical ingredient is a differential inequality governing the evolution of TV between two manifold ODE flows, which expresses the time-derivative of TV through the divergence of the vector-field mismatch and the score of the reference flow; controlling these terms requires establishing new bounds that explicitly account for parallel transport and curvature. Under smoothness assumptions on the population flow-matching field and either uniform (compact manifolds) or mean-square (Hadamard manifolds) approximation guarantees for the learned field, we obtain explicit bounds of the form $\mathrm{TV}\le C_{\mathrm{Lip}}\,h + C_{\varepsilon}\,\varepsilon$ (with an additional higher-order $\varepsilon^2$ term on compact manifolds), cleanly separating numerical discretization and learning errors. Here, $h$ is the step-size and $\varepsilon$ is the target accuracy. Instantiations yield \emph{explicit} polynomial iteration complexities on the hypersphere $S^d$, and on the SPD$(n)$ manifolds under mild moment conditions.
- Abstract(参考訳): リーマンフローマッチング (RFM) は、フロー ODE が単純な基底分布をデータ法則に伝達する時間依存接ベクトル場を学習することにより、フロー ベース生成モデリングを多様体上のデータに拡張する。
我々は、学習ベクトル場とオイラーの多様体の離散化を用いたRAMサンプリング器の漸近的トータル変分法(TV)収束解析を開発する。
我々の重要な技術的要素は、ベクトル場ミスマッチのばらつきと基準流のスコアによるテレビの時間微分を表現する2つの多様体ODEフロー間のTVの進化を制御している微分不等式である。
群フローマッチング場と一様(コンパクト多様体)あるいは平均二乗(アダマール多様体)近似のいずれに対しても滑らかな仮定の下で、学習された体に対して、$\mathrm{TV}\le C_{\mathrm{Lip}}\,h + C_{\varepsilon}\,\varepsilon$ という形の明示的な境界を求める。
ここでは、$h$がステップサイズ、$\varepsilon$がターゲット精度である。
Instantiations yield \emph{explicit} polynomial iteration complexities on the hypersphere $S^d$, and on the SPD$(n)$ manifolds under mild moment conditions。
関連論文リスト
- Pathway to $O(\sqrt{d})$ Complexity bound under Wasserstein metric of flow-based models [1.724966705006084]
We provide tools to estimates the error of flow-based generative model under the Wasserstein metric。
この誤差は、次元と独立にスケールする後方流のプッシュフォワード写像のリプシッツ性という2つの部分によって明示的に制御できることを示す。
論文 参考訳(メタデータ) (2025-12-07T07:26:39Z) - Generative Modeling with Continuous Flows: Sample Complexity of Flow Matching [60.37045080890305]
本稿では,フローマッチングに基づく生成モデルにおいて,サンプルの複雑さを初めて解析する。
速度場推定誤差をニューラルネットワーク近似誤差、有限標本サイズによる統計的誤差、速度場推定のための有限個の最適化ステップによる最適化誤差に分解する。
論文 参考訳(メタデータ) (2025-12-01T05:14:25Z) - On Flow Matching KL Divergence [18.018526452560728]
フローマッチング分布近似のKullback-Leibler(KL)偏差に対する決定論的非漸近上界を導出する。
この結果から,テレビジョン距離の拡散モデルに匹敵する流れの統計的効率が得られた。
論文 参考訳(メタデータ) (2025-11-07T18:47:46Z) - Distribution learning via neural differential equations: minimal energy regularization and approximation theory [1.5771347525430774]
微分常微分方程式(ODE)は、複素確率分布を近似するのに使用できる可逆輸送写像の表現的表現を提供する。
大規模な輸送写像のクラス$T$に対して、写像によって誘導される変位の直線$(1-t)x + t(tTx)$ を実現する時間依存ODE速度場が存在することを示す。
このような速度場は、特定の最小エネルギー正規化を含む訓練対象の最小値であることを示す。
論文 参考訳(メタデータ) (2025-02-06T05:50:21Z) - Flow matching achieves almost minimax optimal convergence [50.38891696297888]
フローマッチング (FM) は, シミュレーションのない生成モデルとして注目されている。
本稿では,大試料径のFMの収束特性を$p$-Wasserstein 距離で論じる。
我々は、FMが1leq p leq 2$でほぼ最小の収束率を達成できることを確立し、FMが拡散モデルに匹敵する収束率に達するという最初の理論的証拠を示す。
論文 参考訳(メタデータ) (2024-05-31T14:54:51Z) - Sampling and estimation on manifolds using the Langevin diffusion [45.57801520690309]
離散化マルコフ過程に基づく$mu_phi $の線形汎函数の2つの推定器を検討する。
誤差境界は、本質的に定義されたランゲヴィン拡散の離散化を用いてサンプリングと推定のために導出される。
論文 参考訳(メタデータ) (2023-12-22T18:01:11Z) - Scaling Riemannian Diffusion Models [68.52820280448991]
非自明な多様体上の高次元タスクにスケールできることを示す。
我々は、$SU(n)$格子上のQCD密度と高次元超球面上の対照的に学習された埋め込みをモデル化する。
論文 参考訳(メタデータ) (2023-10-30T21:27:53Z) - Nearly $d$-Linear Convergence Bounds for Diffusion Models via Stochastic
Localization [40.808942894229325]
データ次元において線形である第1収束境界を提供する。
拡散モデルは任意の分布を近似するために少なくとも$tilde O(fracd log2(1/delta)varepsilon2)$ stepsを必要とすることを示す。
論文 参考訳(メタデータ) (2023-08-07T16:01:14Z) - Convolutional Filtering on Sampled Manifolds [122.06927400759021]
サンプル多様体上の畳み込みフィルタリングは連続多様体フィルタリングに収束することを示す。
本研究は,ナビゲーション制御の問題点を実証的に明らかにした。
論文 参考訳(メタデータ) (2022-11-20T19:09:50Z) - Efficient CDF Approximations for Normalizing Flows [64.60846767084877]
正規化フローの微分同相性に基づいて、閉領域上の累積分布関数(CDF)を推定する。
一般的なフローアーキテクチャとUCIデータセットに関する実験は,従来の推定器と比較して,サンプル効率が著しく向上したことを示している。
論文 参考訳(メタデータ) (2022-02-23T06:11:49Z) - Linear Optimal Transport Embedding: Provable Wasserstein classification
for certain rigid transformations and perturbations [79.23797234241471]
分布の区別は多くの科学分野において重要な問題である。
線形最適輸送(LOT)は分布の空間を$L2$-スペースに埋め込む。
複数の分布分類問題に対するLOTの利点を実証する。
論文 参考訳(メタデータ) (2020-08-20T19:09:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。