論文の概要: On Flow Matching KL Divergence
- arxiv url: http://arxiv.org/abs/2511.05480v1
- Date: Fri, 07 Nov 2025 18:47:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.865946
- Title: On Flow Matching KL Divergence
- Title(参考訳): 流れマッチングKLの多様性について
- Authors: Maojiang Su, Jerry Yao-Chieh Hu, Sophia Pi, Han Liu,
- Abstract要約: フローマッチング分布近似のKullback-Leibler(KL)偏差に対する決定論的非漸近上界を導出する。
この結果から,テレビジョン距離の拡散モデルに匹敵する流れの統計的効率が得られた。
- 参考スコア(独自算出の注目度): 18.018526452560728
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We derive a deterministic, non-asymptotic upper bound on the Kullback-Leibler (KL) divergence of the flow-matching distribution approximation. In particular, if the $L_2$ flow-matching loss is bounded by $\epsilon^2 > 0$, then the KL divergence between the true data distribution and the estimated distribution is bounded by $A_1 \epsilon + A_2 \epsilon^2$. Here, the constants $A_1$ and $A_2$ depend only on the regularities of the data and velocity fields. Consequently, this bound implies statistical convergence rates of Flow Matching Transformers under the Total Variation (TV) distance. We show that, flow matching achieves nearly minimax-optimal efficiency in estimating smooth distributions. Our results make the statistical efficiency of flow matching comparable to that of diffusion models under the TV distance. Numerical studies on synthetic and learned velocities corroborate our theory.
- Abstract(参考訳): フローマッチング分布近似のKullback-Leibler(KL)偏差に対する決定論的非漸近上界を導出する。
特に、$L_2$のフローマッチング損失が$\epsilon^2 > 0$で有界ならば、真のデータ分布と推定分布の間のKL分散は$A_1 \epsilon + A_2 \epsilon^2$で有界である。
ここでは、定数$A_1$と$A_2$は、データと速度場の規則性にのみ依存する。
したがって、この境界は、トータル変分(TV)距離下でのフローマッチング変換器の統計的収束率を意味する。
その結果,フローマッチングはスムーズな分布を推定する際の最小最適効率をほぼ達成できることが示唆された。
この結果から,テレビジョン距離の拡散モデルに匹敵する流れの統計的効率が得られた。
合成速度と学習速度の数値的研究は、我々の理論を裏付ける。
関連論文リスト
- Distribution estimation via Flow Matching with Lipschitz guarantees [0.0]
生成モデリングにおける有望なアプローチであるFlow Matchingが最近人気を集めている。
この依存関係を制御するための仮定について検討する。
推定分布と対象分布との距離をワッサーシュタインが1ドルで収束する速度を導出する。
論文 参考訳(メタデータ) (2025-09-02T14:04:11Z) - On the Wasserstein Convergence and Straightness of Rectified Flow [54.580605276017096]
Rectified Flow (RF) は、ノイズからデータへの直流軌跡の学習を目的とした生成モデルである。
RFのサンプリング分布とターゲット分布とのワッサーシュタイン距離に関する理論的解析を行った。
本稿では,従来の経験的知見と一致した1-RFの特異性と直線性を保証する一般的な条件について述べる。
論文 参考訳(メタデータ) (2024-10-19T02:36:11Z) - Kinetic Interacting Particle Langevin Monte Carlo [0.0]
本稿では,潜在変数モデルにおける統計的推論のために,アンダーダム付きランゲヴィンアルゴリズムの相互作用について紹介し,解析する。
本稿では,パラメータと潜伏変数の空間内で共同で進化する拡散過程を提案する。
統計モデルのパラメータを推定する実用的なアルゴリズムとして,この拡散について2つの明確な考察を行う。
論文 参考訳(メタデータ) (2024-07-08T09:52:46Z) - Flow matching achieves almost minimax optimal convergence [50.38891696297888]
フローマッチング (FM) は, シミュレーションのない生成モデルとして注目されている。
本稿では,大試料径のFMの収束特性を$p$-Wasserstein 距離で論じる。
我々は、FMが1leq p leq 2$でほぼ最小の収束率を達成できることを確立し、FMが拡散モデルに匹敵する収束率に達するという最初の理論的証拠を示す。
論文 参考訳(メタデータ) (2024-05-31T14:54:51Z) - Minimizing $f$-Divergences by Interpolating Velocity Fields [6.8979561422924185]
Wasserstein Gradient Flowは、ターゲットと粒子の分布間の$f$-divergenceを最小限に抑える経路に沿って粒子を動かすことができる。
粒子を移動させるためには、これらの2つの分布間の密度比関数から導かれる対応する速度場を計算する必要がある。
論文 参考訳(メタデータ) (2023-05-24T21:23:58Z) - Improved Analysis of Score-based Generative Modeling: User-Friendly
Bounds under Minimal Smoothness Assumptions [9.953088581242845]
2次モーメントを持つ任意のデータ分布に対して,コンバージェンス保証と複雑性を提供する。
我々の結果は、対数共空性や機能的不等式を前提としない。
我々の理論解析は、異なる離散近似の比較を提供し、実際の離散化点の選択を導くかもしれない。
論文 参考訳(メタデータ) (2022-11-03T15:51:00Z) - Efficient CDF Approximations for Normalizing Flows [64.60846767084877]
正規化フローの微分同相性に基づいて、閉領域上の累積分布関数(CDF)を推定する。
一般的なフローアーキテクチャとUCIデータセットに関する実験は,従来の推定器と比較して,サンプル効率が著しく向上したことを示している。
論文 参考訳(メタデータ) (2022-02-23T06:11:49Z) - Minimax Optimal Estimation of KL Divergence for Continuous Distributions [56.29748742084386]
Kullback-Leibler の同一および独立に分布するサンプルからの発散は、様々な領域において重要な問題である。
単純で効果的な推定器の1つは、これらのサンプル間の近辺 k に基づいている。
論文 参考訳(メタデータ) (2020-02-26T16:37:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。