論文の概要: Ergodic Generative Flows
- arxiv url: http://arxiv.org/abs/2505.03561v1
- Date: Tue, 06 May 2025 14:13:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.419012
- Title: Ergodic Generative Flows
- Title(参考訳): エルゴディック生成フロー
- Authors: Leo Maxime Brunswic, Mateo Clemente, Rui Heng Yang, Adam Sigal, Amir Rasouli, Yinchuan Li,
- Abstract要約: 生成フローネットワーク(GFN)は、非正規化分布密度からサンプリングするために、最初は非巡回グラフ上に導入された。
最近の研究は、より柔軟で適用範囲を拡大できる生成手法の理論的枠組みを拡張している。
本研究は,先述の問題に対処するために使用されるエルゴディック生成フロー(EGF)と呼ばれる生成フローのファミリーを提案する。
- 参考スコア(独自算出の注目度): 12.483229750132244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Flow Networks (GFNs) were initially introduced on directed acyclic graphs to sample from an unnormalized distribution density. Recent works have extended the theoretical framework for generative methods allowing more flexibility and enhancing application range. However, many challenges remain in training GFNs in continuous settings and for imitation learning (IL), including intractability of flow-matching loss, limited tests of non-acyclic training, and the need for a separate reward model in imitation learning. The present work proposes a family of generative flows called Ergodic Generative Flows (EGFs) which are used to address the aforementioned issues. First, we leverage ergodicity to build simple generative flows with finitely many globally defined transformations (diffeomorphisms) with universality guarantees and tractable flow-matching loss (FM loss). Second, we introduce a new loss involving cross-entropy coupled to weak flow-matching control, coined KL-weakFM loss. It is designed for IL training without a separate reward model. We evaluate IL-EGFs on toy 2D tasks and real-world datasets from NASA on the sphere, using the KL-weakFM loss. Additionally, we conduct toy 2D reinforcement learning experiments with a target reward, using the FM loss.
- Abstract(参考訳): 生成フローネットワーク(GFN)は、非正規化分布密度からサンプリングするために、最初は非巡回グラフ上に導入された。
最近の研究は、より柔軟で適用範囲を拡大できる生成手法の理論的枠組みを拡張している。
しかし、フローマッチング損失の抽出性、非循環的トレーニングの限定テスト、模倣学習における別の報酬モデルの必要性など、連続的な設定でのGFNのトレーニングや模倣学習(IL)に多くの課題が残っている。
本研究は,先述の問題に対処するために使用されるエルゴディック生成フロー(EGF)と呼ばれる生成フローのファミリーを提案する。
まず、エルゴディディティを利用して、有限個の大域的に定義された変換(微分同相)と、普遍性保証とトラクタブルなフローマッチング損失(FM損失)を持つ単純な生成フローを構築する。
第2に,KL-weakFM損失というフローマッチング制御の弱いクロスエントロピーによる新たな損失を導入する。
個別の報酬モデルなしで、ILトレーニング用に設計されている。
我々は、KL-weakFM損失を用いて、NASAのおもちゃ2Dタスクと実世界のデータセットのIL-EGFを評価した。
さらに,FMロスを用いた2次元強化学習実験を行った。
関連論文リスト
- TFG-Flow: Training-free Guidance in Multimodal Generative Flow [73.93071065307782]
本稿では,マルチモーダルな生成フローのためのトレーニング不要指導法TFG-Flowを紹介する。
TFG-Flowは、離散変数の導出において、非バイアスサンプリングの特性を維持しながら、次元の呪いに対処する。
TFG-Flowは, 所望の特性を持つ分子を生成することにより, 薬物設計において大きな可能性を秘めている。
論文 参考訳(メタデータ) (2025-01-24T03:44:16Z) - FFHFlow: A Flow-based Variational Approach for Learning Diverse Dexterous Grasps with Shape-Aware Introspection [19.308304984645684]
マルチフィンガーハンドの多様なグリップを生成できる新しいモデルを提案する。
提案手法は, 高いベースラインに対する性能向上と実行時の効率向上を実現する。
また,現実世界の雑多な作業空間や密集した作業空間において,より多様性の高いオブジェクトを把握できることのメリットも示している。
論文 参考訳(メタデータ) (2024-07-21T13:33:08Z) - Improving and generalizing flow-based generative models with minibatch
optimal transport [90.01613198337833]
連続正規化フロー(CNF)のための一般条件流整合(CFM)技術を導入する。
CFMは、拡散モデルのフローをトレーニングするために使用されるような安定した回帰目標を特徴としているが、決定論的フローモデルの効率的な推論を好んでいる。
我々の目的の変種は最適輸送CFM (OT-CFM) であり、訓練がより安定し、より高速な推論をもたらすより単純なフローを生成する。
論文 参考訳(メタデータ) (2023-02-01T14:47:17Z) - Learning GFlowNets from partial episodes for improved convergence and
stability [56.99229746004125]
生成フローネットワーク(GFlowNets)は、非正規化対象密度の下で離散オブジェクトのシーケンシャルサンプリングを訓練するアルゴリズムである。
GFlowNetsの既存のトレーニング目的は、状態または遷移に局所的であるか、あるいはサンプリング軌道全体にわたって報酬信号を伝達する。
強化学習におけるTD($lambda$)アルゴリズムにインスパイアされたサブトラジェクティブバランス(subtrajectory balance, SubTB($lambda$)を導入する。
論文 参考訳(メタデータ) (2022-09-26T15:44:24Z) - MMCGAN: Generative Adversarial Network with Explicit Manifold Prior [78.58159882218378]
本稿では,モード崩壊を緩和し,GANのトレーニングを安定させるために,明示的な多様体学習を採用することを提案する。
玩具データと実データの両方を用いた実験により,MMCGANのモード崩壊緩和効果,トレーニングの安定化,生成サンプルの品質向上効果が示された。
論文 参考訳(メタデータ) (2020-06-18T07:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。