論文の概要: Gradient Flow Drifting: Generative Modeling via Wasserstein Gradient Flows of KDE-Approximated Divergences
- arxiv url: http://arxiv.org/abs/2603.10592v1
- Date: Wed, 11 Mar 2026 09:48:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.883339
- Title: Gradient Flow Drifting: Generative Modeling via Wasserstein Gradient Flows of KDE-Approximated Divergences
- Title(参考訳): グラディエントフロードリフト:KDE近似ダイバージェンスのワッサーシュタイングラディエントフローによる生成モデリング
- Authors: Jiarui Cao, Zixuan Wei, Yuxin Liu,
- Abstract要約: 我々は、最近提案されたドリフトモデルと、カーネル密度推定(KDE)近似の下での前方KL分散のワッサーシュタイン勾配流の等価性を証明した。
我々は、簡潔な識別可能性の証明と、理論的に根拠付けられた混合分散戦略を提供する。
- 参考スコア(独自算出の注目度): 1.7415937218905126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We reveal a precise mathematical framework about a new family of generative models which we call Gradient Flow Drifting. With this framework, we prove an equivalence between the recently proposed Drifting Model and the Wasserstein gradient flow of the forward KL divergence under kernel density estimation (KDE) approximation. Specifically, we prove that the drifting field of drifting model (arXiv:2602.04770) equals, up to a bandwidth-squared scaling factor, the difference of KDE log-density gradients $\nabla \log p_{\mathrm{kde}} - \nabla \log q_{\mathrm{kde}}$, which is exactly the particle velocity field of the Wasserstein-2 gradient flow of $KL(q\|p)$ with KDE-approximated densities. Besides that, this broad family of generative models can also include MMD-based generators, which arises as special cases of Wasserstein gradient flows of different divergences under KDE approximation. We provide a concise identifiability proof, and a theoretically grounded mixed-divergence strategy. We combine reverse KL and $χ^2$ divergence gradient flows to simultaneously avoid mode collapse and mode blurring, and extend this method onto Riemannian manifold which loosens the constraints on the kernel function, and makes this method more suitable for the semantic space. Preliminary experiments on synthetic benchmarks validate the framework.
- Abstract(参考訳): グラディエントフロードリフト(Gradient Flow Drifting)と呼ばれる新しい生成モデルのファミリーに関する正確な数学的枠組みを明らかにする。
この枠組みにより、最近提案されたドリフトモデルと、カーネル密度推定(KDE)近似の下での前方KL偏差のワッサーシュタイン勾配流の等価性を証明した。
具体的には、ドリフトモデルのドリフト場(arXiv:2602.04770)が、帯域幅2乗のスケーリング係数まで、KDE対数密度勾配の差$\nabla \log p_{\mathrm{kde}} - \nabla \log q_{\mathrm{kde}}$と等しいことを証明している。
さらに、この広範囲な生成モデルにはMDDベースのジェネレータも含まれており、これはKDE近似の下で異なる発散物のワッサーシュタイン勾配流の特別な場合として生じる。
我々は、簡潔な識別可能性の証明と、理論的に根拠付けられた混合分散戦略を提供する。
逆 KL と $ ^2$ 分散勾配流を組み合わせてモードの崩壊とモードのぼかしを同時に回避し、この手法をリーマン多様体に拡張し、カーネル関数の制約を緩和し、この手法を意味空間にもっと適させる。
合成ベンチマークに関する予備的な実験は、このフレームワークを検証する。
関連論文リスト
- Rod Flow: A Continuous-Time Model for Gradient Descent at the Edge of Stability [9.11122093402205]
大きなステップサイズの勾配降下は、勾配流からしばしば遠ざかる。
Cohenらによって提唱された「中心流」は、GDダイナミクスの正確な近似を提供する。
簡単な玩具の例としては,GDのダイナミックスをよりよく捉えたRod Flowを提案する。
論文 参考訳(メタデータ) (2026-02-01T23:10:44Z) - Kernel Approximation of Fisher-Rao Gradient Flows [52.154685604660465]
本稿では,フィッシャー・ラオ型およびワッサーシュタイン型勾配流の勾配構造,流れ方程式,および核近似に関する厳密な研究を行う。
具体的には、フィッシャー・ラオ幾何学とその様々なカーネルに基づく近似に注目し、原理的な理論的枠組みを開発する。
論文 参考訳(メタデータ) (2024-10-27T22:52:08Z) - Differentially Private Gradient Flow based on the Sliced Wasserstein Distance [59.1056830438845]
本稿では,確率測度空間の勾配流に基づく新しい微分プライベートな生成モデリング手法を提案する。
実験により,提案モデルが低プライバシー予算で高忠実度データを生成可能であることが示された。
論文 参考訳(メタデータ) (2023-12-13T15:47:30Z) - Bridging the Gap Between Variational Inference and Wasserstein Gradient
Flows [6.452626686361619]
我々は変分推論とワッサーシュタイン勾配流のギャップを埋める。
ある条件下では、ビュール=ヴァッサーシュタイン勾配流はユークリッド勾配流として再キャストすることができる。
また,Wasserstein勾配流に対する蒸留法としてフレーミングすることで,経路微分勾配の別の視点も提供する。
論文 参考訳(メタデータ) (2023-10-31T00:10:19Z) - Particle-based Variational Inference with Generalized Wasserstein
Gradient Flow [32.37056212527921]
本稿では一般化ワッサーシュタイン勾配勾配(GWG)と呼ばれるParVIフレームワークを提案する。
GWGが強い収束保証を示すことを示す。
また、収束を加速するためにワッサーシュタイン計量を自動的に選択する適応版も提供する。
論文 参考訳(メタデータ) (2023-10-25T10:05:42Z) - Posterior Sampling Based on Gradient Flows of the MMD with Negative Distance Kernel [2.199065293049186]
後方サンプリングと条件生成モデリングのための負距離カーネルによる最大平均誤差(MMD)の条件フロー。
我々は、基底真実と離散的なワッサーシュタイン勾配流を用いた観測の連成分布を近似した。
論文 参考訳(メタデータ) (2023-10-04T11:40:02Z) - Learning Discretized Neural Networks under Ricci Flow [48.47315844022283]
低精度重みとアクティベーションからなる離散ニューラルネットワーク(DNN)について検討する。
DNNは、訓練中に微分不可能な離散関数のために無限あるいはゼロの勾配に悩まされる。
論文 参考訳(メタデータ) (2023-02-07T10:51:53Z) - Large-Scale Wasserstein Gradient Flows [84.73670288608025]
ワッサーシュタイン勾配流を近似するスケーラブルなスキームを導入する。
我々のアプローチは、JKOステップを識別するために、入力ニューラルネットワーク(ICNN)に依存しています。
その結果、勾配拡散の各ステップで測定値からサンプリングし、その密度を計算することができる。
論文 参考訳(メタデータ) (2021-06-01T19:21:48Z) - On the Convergence of Gradient Descent in GANs: MMD GAN As a Gradient
Flow [26.725412498545385]
パラメトリックカーネル化勾配流は、勾配正規化$mathrmMMD$GANにおけるmin-maxゲームに類似していることを示す。
次に、正規化$mathrmMMD$GANにおける生成元の空間上の勾配降下が、対象分布に大域的に収束することを保証する明示的な条件を導出する。
論文 参考訳(メタデータ) (2020-11-04T16:55:00Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。