論文の概要: Learning Energy-Based Generative Models via Potential Flow: A Variational Principle Approach to Probability Density Homotopy Matching
- arxiv url: http://arxiv.org/abs/2504.16262v1
- Date: Tue, 22 Apr 2025 20:39:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.923926
- Title: Learning Energy-Based Generative Models via Potential Flow: A Variational Principle Approach to Probability Density Homotopy Matching
- Title(参考訳): ポテンシャル流によるエネルギーベース生成モデルの学習:確率密度ホモトピーマッチングにおける変分原理アプローチ
- Authors: Junn Yong Loo, Michelle Adeline, Julia Kaiwen Lau, Fang Yu Leong, Hwa Hui Tew, Arghya Pal, Vishnu Monn Baskaran, Chee-Ming Ting, Raphaël C. -W. Phan,
- Abstract要約: エネルギーベースモデル(EBMs)は確率的生成モデルの強力なクラスである。
本稿では,新しいエネルギーベース生成フレームワークVPFBを提案する。
- 参考スコア(独自算出の注目度): 9.12119858170289
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Energy-based models (EBMs) are a powerful class of probabilistic generative models due to their flexibility and interpretability. However, relationships between potential flows and explicit EBMs remain underexplored, while contrastive divergence training via implicit Markov chain Monte Carlo (MCMC) sampling is often unstable and expensive in high-dimensional settings. In this paper, we propose Variational Potential Flow Bayes (VPFB), a new energy-based generative framework that eliminates the need for implicit MCMC sampling and does not rely on auxiliary networks or cooperative training. VPFB learns an energy-parameterized potential flow by constructing a flow-driven density homotopy that is matched to the data distribution through a variational loss minimizing the Kullback-Leibler divergence between the flow-driven and marginal homotopies. This principled formulation enables robust and efficient generative modeling while preserving the interpretability of EBMs. Experimental results on image generation, interpolation, out-of-distribution detection, and compositional generation confirm the effectiveness of VPFB, showing that our method performs competitively with existing approaches in terms of sample quality and versatility across diverse generative modeling tasks.
- Abstract(参考訳): エネルギーベースモデル(EBMs)は、その柔軟性と解釈可能性のために、確率的生成モデルの強力なクラスである。
しかし,マルコフ連鎖モンテカルロ (MCMC) サンプリングによる相対的分岐訓練は高次元環境では不安定で高価であることが多い。
本稿では,暗黙的なMCMCサンプリングの必要性を排除し,補助的ネットワークや協調学習に依存しない新しいエネルギーベース生成フレームワークであるVPFBを提案する。
VPFBは、フロー駆動と縁のホモトピー間のクルバック・リーバーのばらつきを最小限に抑え、データ分布に一致するフロー駆動密度ホモトピーを構築することにより、エネルギーパラメータ化されたポテンシャルフローを学習する。
この原理的定式化は、ESMの解釈可能性を維持しつつ、堅牢で効率的な生成モデリングを可能にする。
画像生成,補間,アウト・オブ・ディストリビューション検出,構成生成実験の結果,VPFBの有効性が確認できた。
関連論文リスト
- Energy Matching: Unifying Flow Matching and Energy-Based Models for Generative Modeling [4.584647857042494]
生成モデルは、しばしばフローやスコアの一致によってデータにノイズをマッピングするが、これらのアプローチは部分的な観測や追加の事前を組み込むのに難しくなる。
ワッサースタイン勾配流の最近の進歩に触発されて,エネルギーモデル(EBM)の柔軟性とフローベースアプローチを統一するフレームワークであるEnergy Matchingを提案する。
我々は、このダイナミクスを、1つの時間非依存スカラー場でパラメータ化し、逆問題の効率的な正則化のために、強力な生成器と柔軟な先行器の両方として機能する。
論文 参考訳(メタデータ) (2025-04-14T18:10:58Z) - Hessian-Informed Flow Matching [4.542719108171107]
Hessian-Informed Flow Matchingは、エネルギー関数のHessianを条件流に統合する新しいアプローチである。
この積分により、HI-FMは局所曲率と異方性共分散構造を考慮できる。
MNIST と Lennard-Jones 粒子のデータセットに関する実証的な評価は、HI-FM が試験サンプルの可能性を改善していることを示している。
論文 参考訳(メタデータ) (2024-10-15T09:34:52Z) - Variational Potential Flow: A Novel Probabilistic Framework for Energy-Based Generative Modelling [10.926841288976684]
エネルギーをベースとした新しい生成フレームワークVAPOについて述べる。
VAPOは、勾配(流れ)が前のサンプルを導くポテンシャルエネルギー関数を学習することを目的としており、その密度の進化は近似的なデータ準同相性に従う。
イメージはポテンシャルエネルギーをトレーニングした後、ガウスのサンプルを初期化し、固定時間間隔で電位フローを管理するODEを解くことで生成することができる。
論文 参考訳(メタデータ) (2024-07-21T18:08:12Z) - Extended Flow Matching: a Method of Conditional Generation with Generalized Continuity Equation [19.71452214879951]
条件生成は 生成モデルの最も重要な応用の1つです
行列場を通して条件生成に帰納バイアスを導入することができることを示す。
条件生成におけるEMFの競争性を支持する実験結果とともに,本理論を提示する。
論文 参考訳(メタデータ) (2024-02-29T04:12:32Z) - Equivariant Flow Matching with Hybrid Probability Transport [69.11915545210393]
拡散モデル (DM) は, 特徴量の多いジオメトリの生成に有効であることを示した。
DMは通常、非効率なサンプリング速度を持つ不安定な確率力学に悩まされる。
等変モデリングと安定化確率力学の両方の利点を享受する幾何フローマッチングを導入する。
論文 参考訳(メタデータ) (2023-12-12T11:13:13Z) - Learning Energy-Based Prior Model with Diffusion-Amortized MCMC [89.95629196907082]
非収束短距離MCMCを用いた事前及び後方サンプリングによる潜時空間EMM学習の一般的な実践は、さらなる進歩を妨げている。
本稿では,MCMCサンプリングのための単純だが効果的な拡散型アモータイズ手法を導入し,それに基づく潜時空間EMMのための新しい学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-05T00:23:34Z) - Learning Energy-Based Models by Cooperative Diffusion Recovery Likelihood [64.95663299945171]
高次元データに基づくエネルギーベースモデル(EBM)の訓練は、困難かつ時間を要する可能性がある。
EBMと、GANや拡散モデルのような他の生成フレームワークとの間には、サンプル品質に顕著なギャップがある。
本研究では,協調拡散回復可能性 (CDRL) を提案する。
論文 参考訳(メタデータ) (2023-09-10T22:05:24Z) - On Feature Diversity in Energy-based Models [98.78384185493624]
エネルギーベースモデル(EBM)は通常、異なる特徴の組み合わせを学習し、入力構成ごとにエネルギーマッピングを生成する内部モデルによって構成される。
EBMのほぼ正しい(PAC)理論を拡張し,EBMの性能に及ぼす冗長性低減の影響を解析した。
論文 参考訳(メタデータ) (2023-06-02T12:30:42Z) - Latent Diffusion Energy-Based Model for Interpretable Text Modeling [104.85356157724372]
本稿では,拡散モデルと潜時空間ESMの共生を変動学習フレームワークで導入する。
我々は,学習した潜在空間の品質を向上させるために,情報ボトルネックと合わせて幾何学的クラスタリングに基づく正規化を開発する。
論文 参考訳(メタデータ) (2022-06-13T03:41:31Z) - Training Deep Energy-Based Models with f-Divergence Minimization [113.97274898282343]
深部エネルギーベースモデル(EBM)は分布パラメトリゼーションにおいて非常に柔軟であるが、計算的に困難である。
所望のf偏差を用いてEMMを訓練するための、f-EBMと呼ばれる一般的な変分フレームワークを提案する。
実験の結果,F-EBMは対照的なばらつきよりも優れており,KL以外のf-divergencesを用いたEBMの訓練の利点も示された。
論文 参考訳(メタデータ) (2020-03-06T23:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。