論文の概要: A Theoretical Analysis of Discrete Flow Matching Generative Models
- arxiv url: http://arxiv.org/abs/2509.22623v1
- Date: Fri, 26 Sep 2025 17:48:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.624064
- Title: A Theoretical Analysis of Discrete Flow Matching Generative Models
- Title(参考訳): 離散フローマッチング生成モデルの理論解析
- Authors: Maojiang Su, Mingcheng Lu, Jerry Yao-Chieh Hu, Shang Wu, Zhao Song, Alex Reneau, Han Liu,
- Abstract要約: 本稿では、離散フローマッチング(DFM)生成モデルのエンドツーエンドトレーニングに関する理論的解析を行う。
DFMは、ニューラルネットワークをトレーニングして変形速度場を近似することにより、基礎となる生成ダイナミクスを学ぶ、有望な離散生成モデリングフレームワークである。
- 参考スコア(独自算出の注目度): 19.711190889634135
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We provide a theoretical analysis for end-to-end training Discrete Flow Matching (DFM) generative models. DFM is a promising discrete generative modeling framework that learns the underlying generative dynamics by training a neural network to approximate the transformative velocity field. Our analysis establishes a clear chain of guarantees by decomposing the final distribution estimation error. We first prove that the total variation distance between the generated and target distributions is controlled by the risk of the learned velocity field. We then bound this risk by analyzing its two primary sources: (i) Approximation Error, where we quantify the capacity of the Transformer architecture to represent the true velocity, and (ii) Estimation Error, where we derive statistical convergence rates that bound the error from training on a finite dataset. By composing these results, we provide the first formal proof that the distribution generated by a trained DFM model provably converges to the true data distribution as the training set size increases.
- Abstract(参考訳): 本稿では、離散フローマッチング(DFM)生成モデルのエンドツーエンドトレーニングに関する理論的解析を行う。
DFMは、ニューラルネットワークをトレーニングして変形速度場を近似することにより、基礎となる生成ダイナミクスを学ぶ、有望な離散生成モデリングフレームワークである。
本分析では,最終的な分布推定誤差を分解することにより,保証の明確な連鎖を確立する。
まず,生成した分布と対象分布の総変動距離が,学習速度場のリスクによって制御されることを示す。
次に、このリスクを2つの主要なソースを分析します。
一 近似誤差 トランスフォーマーアーキテクチャのキャパシティを定量化し、真のベロシティを表現し、
(2)推定誤差は、有限データセット上のトレーニングから誤差を束縛する統計的収束率を導出する。
これらの結果を構成することにより、トレーニングセットのサイズが大きくなるにつれて、トレーニングされたDFMモデルによって生成された分布が真のデータ分布に確実に収束することを示す最初の公式な証明を提供する。
関連論文リスト
- Error Analysis of Discrete Flow with Generator Matching [34.847768962128164]
我々は、離散フローモデルの理論的性質を研究するために、計算理論に基づく統一的な枠組みを開発する。
具体的には、遷移速度の異なる2つの連続時間マルコフ連鎖に関する2つの経路測度のKLばらつきを導出する。
遷移速度推定と早期停止から生じる誤差を包括的に分析する。
論文 参考訳(メタデータ) (2025-09-26T05:41:45Z) - A solvable generative model with a linear, one-step denoiser [0.0]
本研究では,線形デノイザに基づく解析的抽出可能な単一ステップ拡散モデルを開発し,Kulback-Leibler分散の明示的な公式を示す。
大規模実用拡散モデルでは、拡散段数の増加が生産品質を高める理由を説明する。
論文 参考訳(メタデータ) (2024-11-26T19:00:01Z) - How Discrete and Continuous Diffusion Meet: Comprehensive Analysis of Discrete Diffusion Models via a Stochastic Integral Framework [11.71206628091551]
L'evy型積分に基づく離散拡散モデルの誤差解析のための包括的フレームワークを提案する。
我々のフレームワークは、離散拡散モデルにおける現在の理論結果を統一し、強化する。
論文 参考訳(メタデータ) (2024-10-04T16:59:29Z) - Constrained Diffusion Models via Dual Training [80.03953599062365]
拡散プロセスは、トレーニングデータセットのバイアスを反映したサンプルを生成する傾向がある。
所望の分布に基づいて拡散制約を付与し,制約付き拡散モデルを構築する。
本稿では,制約付き拡散モデルを用いて,目的と制約の最適なトレードオフを実現する混合データ分布から新しいデータを生成することを示す。
論文 参考訳(メタデータ) (2024-08-27T14:25:42Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Diffusion Models are Minimax Optimal Distribution Estimators [49.47503258639454]
拡散モデリングの近似と一般化能力について、初めて厳密な分析を行った。
実密度関数がベソフ空間に属し、経験値整合損失が適切に最小化されている場合、生成したデータ分布は、ほぼ最小の最適推定値が得られることを示す。
論文 参考訳(メタデータ) (2023-03-03T11:31:55Z) - Score Approximation, Estimation and Distribution Recovery of Diffusion
Models on Low-Dimensional Data [68.62134204367668]
本稿では,未知の低次元線形部分空間上でデータをサポートする場合の拡散モデルのスコア近似,推定,分布回復について検討する。
適切に選択されたニューラルネットワークアーキテクチャでは、スコア関数を正確に近似し、効率的に推定することができる。
推定スコア関数に基づいて生成された分布は、データ幾何学構造を捕捉し、データ分布の近傍に収束する。
論文 参考訳(メタデータ) (2023-02-14T17:02:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。