論文の概要: Generative Flow Networks for Discrete Probabilistic Modeling
- arxiv url: http://arxiv.org/abs/2202.01361v1
- Date: Thu, 3 Feb 2022 01:27:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-05 02:17:45.670325
- Title: Generative Flow Networks for Discrete Probabilistic Modeling
- Title(参考訳): 離散確率モデリングのための生成フローネットワーク
- Authors: Dinghuai Zhang, Nikolay Malkin, Zhen Liu, Alexandra Volokhova, Aaron
Courville, Yoshua Bengio
- Abstract要約: エネルギーベース生成フローネットワーク(EB-GFN)について述べる。
EB-GFNは高次元離散データのための新しい確率論的モデリングアルゴリズムである。
GFlowNetsは、モード間を混在させるために、大ブロックギブスサンプリングを略して行うことができるかを示す。
- 参考スコア(独自算出の注目度): 118.81967600750428
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present energy-based generative flow networks (EB-GFN), a novel
probabilistic modeling algorithm for high-dimensional discrete data. Building
upon the theory of generative flow networks (GFlowNets), we model the
generation process by a stochastic data construction policy and thus amortize
expensive MCMC exploration into a fixed number of actions sampled from a
GFlowNet. We show how GFlowNets can approximately perform large-block Gibbs
sampling to mix between modes. We propose a framework to jointly train a
GFlowNet with an energy function, so that the GFlowNet learns to sample from
the energy distribution, while the energy learns with an approximate MLE
objective with negative samples from the GFlowNet. We demonstrate EB-GFN's
effectiveness on various probabilistic modeling tasks.
- Abstract(参考訳): 我々は高次元離散データのための新しい確率的モデリングアルゴリズムであるエネルギーベース生成フローネットワーク(EB-GFN)を提案する。
生成フローネットワーク(GFlowNets)の理論に基づいて、確率的データ構築ポリシーにより生成過程をモデル化し、GFlowNetからサンプリングされた一定の数のアクションに対する高価なMCMC探索を記憶する。
GFlowNetsは,モード間を混在させるため,大ブロックギブスサンプリングをほぼ行うことができることを示す。
本稿では,gflownet をエネルギー関数と共同で訓練し,gflownet がエネルギー分布からサンプルを学習し,gflownet から負のサンプルを得た近似 mle 目標で学習する枠組みを提案する。
各種確率モデルにおけるEB-GFNの有効性を示す。
関連論文リスト
- Improving GFlowNets with Monte Carlo Tree Search [6.497027864860203]
近年の研究では,GFlowNetsとエントロピー規則化強化学習の強い関係が明らかにされている。
我々はモンテカルロ木探索(MCTS)を適用してGFlowNetの計画能力を高めることを提案する。
実験により,本手法により,GFlowNetトレーニングのサンプル効率と,事前学習したGFlowNetモデルの生成精度が向上することが示された。
論文 参考訳(メタデータ) (2024-06-19T15:58:35Z) - Baking Symmetry into GFlowNets [58.932776403471635]
GFlowNetsは、さまざまな候補を高い報酬で生成する上で、有望なパフォーマンスを示している。
本研究は,生成過程における等価な動作を特定することにより,GFlowNetに対称性を統合することを目的とする。
論文 参考訳(メタデータ) (2024-06-08T10:11:10Z) - Generative Flow Networks as Entropy-Regularized RL [4.857649518812728]
生成フローネットワーク(ジェネレーティブフローネットワーク、英:generative flow network、GFlowNets)は、一連の行動を通じて与えられた報酬に比例確率を持つ合成対象をサンプリングするためのポリシーを訓練する手法である。
生成フローネットワークの学習作業は,エントロピー規則化強化学習問題として効率的に行うことができることを示す。
先に報告した結果とは対照的に,エントロピー的RLアプローチは,既存のGFlowNetトレーニング手法と競合する可能性がある。
論文 参考訳(メタデータ) (2023-10-19T17:31:40Z) - Stochastic Generative Flow Networks [89.34644133901647]
生成フローネットワーク(GFlowNets)は「制御としての推論」のレンズを通して複雑な構造をサンプリングすることを学ぶ
既存のGFlowNetsは決定論的環境にのみ適用でき、動的処理によるより一般的なタスクではフェールする。
本稿では,GFlowNetsを環境に拡張する新しいアルゴリズムであるGFlowNetsを紹介する。
論文 参考訳(メタデータ) (2023-02-19T03:19:40Z) - A theory of continuous generative flow networks [104.93913776866195]
生成フローネットワーク(Generative Flow Networks, GFlowNets)は、非正規化されたターゲット分布からサンプルを抽出するように訓練されたアモータイズされた変分推論アルゴリズムである。
本稿では、既存の離散GFlowNetと、連続的あるいはハイブリッドな状態空間を持つGFlowNetを包含する一般化GFlowNetの理論を提案する。
論文 参考訳(メタデータ) (2023-01-30T00:37:56Z) - Bayesian Structure Learning with Generative Flow Networks [85.84396514570373]
ベイズ構造学習では、データから有向非巡回グラフ(DAG)上の分布を推定することに興味がある。
近年,ジェネレーティブ・フロー・ネットワーク(GFlowNets)と呼ばれる確率モデルのクラスが,ジェネレーティブ・モデリングの一般的なフレームワークとして紹介されている。
DAG-GFlowNetと呼ばれる本手法は,DAGよりも後方の正確な近似を提供する。
論文 参考訳(メタデータ) (2022-02-28T15:53:10Z) - GFlowNet Foundations [66.69854262276391]
Generative Flow Networks (GFlowNets) は、多様な候補をアクティブな学習コンテキストでサンプリングする方法として導入された。
GFlowNetのさらなる理論的性質について述べる。
論文 参考訳(メタデータ) (2021-11-17T17:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。