論文の概要: A theory of continuous generative flow networks
- arxiv url: http://arxiv.org/abs/2301.12594v1
- Date: Mon, 30 Jan 2023 00:37:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 16:12:44.516536
- Title: A theory of continuous generative flow networks
- Title(参考訳): 連続生成フローネットワークの理論
- Authors: Salem Lahlou, Tristan Deleu, Pablo Lemos, Dinghuai Zhang, Alexandra
Volokhova, Alex Hern\'andez-Garc\'ia, L\'ena N\'ehale Ezzine, Yoshua Bengio,
Nikolay Malkin
- Abstract要約: 生成フローネットワーク(Generative Flow Networks, GFlowNets)は、非正規化されたターゲット分布からサンプルを抽出するように訓練されたアモータイズされた変分推論アルゴリズムである。
本稿では、既存の離散GFlowNetと、連続的あるいはハイブリッドな状態空間を持つGFlowNetを包含する一般化GFlowNetの理論を提案する。
- 参考スコア(独自算出の注目度): 104.93913776866195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative flow networks (GFlowNets) are amortized variational inference
algorithms that are trained to sample from unnormalized target distributions
over compositional objects. A key limitation of GFlowNets until this time has
been that they are restricted to discrete spaces. We present a theory for
generalized GFlowNets, which encompasses both existing discrete GFlowNets and
ones with continuous or hybrid state spaces, and perform experiments with two
goals in mind. First, we illustrate critical points of the theory and the
importance of various assumptions. Second, we empirically demonstrate how
observations about discrete GFlowNets transfer to the continuous case and show
strong results compared to non-GFlowNet baselines on several previously studied
tasks. This work greatly widens the perspectives for the application of
GFlowNets in probabilistic inference and various modeling settings.
- Abstract(参考訳): ジェネレーティブフローネットワーク(Generative Flow Networks, GFlowNets)は、合成対象物上の非正規化対象分布からサンプリングするように訓練されたアモータイズされた変分推論アルゴリズムである。
GFlowNets の重要な制限は、それらが離散空間に制限されていることである。
本稿では,既存の離散GFlowNetと連続的あるいはハイブリッドな状態空間を持つGFlowNetを包含する一般化GFlowNetの理論を提案し,二つの目標を念頭に実験を行う。
まず,理論の批判点と様々な仮定の重要性について述べる。
第二に, 離散型gflownets の観測結果が連続的な場合へどのように移行するかを実証し, 従来研究したタスクにおける非 gflownet ベースラインと比較して, 強い結果を示す。
この作業は、確率的推論と様々なモデリング設定におけるGFlowNetsの適用の視点を大幅に広げる。
関連論文リスト
- Improving GFlowNets with Monte Carlo Tree Search [6.497027864860203]
近年の研究では,GFlowNetsとエントロピー規則化強化学習の強い関係が明らかにされている。
我々はモンテカルロ木探索(MCTS)を適用してGFlowNetの計画能力を高めることを提案する。
実験により,本手法により,GFlowNetトレーニングのサンプル効率と,事前学習したGFlowNetモデルの生成精度が向上することが示された。
論文 参考訳(メタデータ) (2024-06-19T15:58:35Z) - Investigating Generalization Behaviours of Generative Flow Networks [3.4642376250601017]
GFlowNetの一般化の仮説的なメカニズムを実証的に検証する。
GFlowNetsが近似的に学習する関数は、一般化を促進する暗黙の基盤構造を持つ。
また、GFlowNetsはオフラインおよび非政治のトレーニングに敏感であることもわかっていますが、GFlowNetsが暗黙的に学んだ報酬は、トレーニングディストリビューションの変更に対して堅牢です。
論文 参考訳(メタデータ) (2024-02-07T23:02:53Z) - Expected flow networks in stochastic environments and two-player zero-sum games [63.98522423072093]
生成フローネットワーク(GFlowNets)は、所定の分布に合わせてトレーニングされた逐次サンプリングモデルである。
我々はGFlowNetsを環境に拡張する予測フローネットワーク(EFlowNets)を提案する。
本稿では,タンパク質設計などのタスクにおいて,EFlowNetが他のGFlowNetよりも優れていることを示す。
次に、EFlowNetsの概念を敵環境に拡張し、2プレイヤーゼロサムゲームのための敵フローネットワーク(AFlowNets)を提案する。
論文 参考訳(メタデータ) (2023-10-04T12:50:29Z) - CFlowNets: Continuous Control with Generative Flow Networks [23.093316128475564]
探索制御タスクの強化学習の代替として,ジェネレーティブフローネットワーク(GFlowNets)を用いることができる。
本稿では,連続制御タスクに適用可能な生成連続フローネットワーク(CFlowNets)を提案する。
論文 参考訳(メタデータ) (2023-03-04T14:37:47Z) - Stochastic Generative Flow Networks [89.34644133901647]
生成フローネットワーク(GFlowNets)は「制御としての推論」のレンズを通して複雑な構造をサンプリングすることを学ぶ
既存のGFlowNetsは決定論的環境にのみ適用でき、動的処理によるより一般的なタスクではフェールする。
本稿では,GFlowNetsを環境に拡張する新しいアルゴリズムであるGFlowNetsを紹介する。
論文 参考訳(メタデータ) (2023-02-19T03:19:40Z) - GFlowNets and variational inference [64.22223306224903]
本稿では,階層的変動推論(VI)と生成フローネットワーク(GFlowNets)という,確率論的アルゴリズムの2つのファミリー間のブリッジを構築する。
また, ある場合において, VIアルゴリズムは, 学習目標の期待勾配の等しさという意味で, GFlowNetsの特別な場合と等価であることを示した。
論文 参考訳(メタデータ) (2022-10-02T17:41:01Z) - Learning GFlowNets from partial episodes for improved convergence and
stability [56.99229746004125]
生成フローネットワーク(GFlowNets)は、非正規化対象密度の下で離散オブジェクトのシーケンシャルサンプリングを訓練するアルゴリズムである。
GFlowNetsの既存のトレーニング目的は、状態または遷移に局所的であるか、あるいはサンプリング軌道全体にわたって報酬信号を伝達する。
強化学習におけるTD($lambda$)アルゴリズムにインスパイアされたサブトラジェクティブバランス(subtrajectory balance, SubTB($lambda$)を導入する。
論文 参考訳(メタデータ) (2022-09-26T15:44:24Z) - Generative Flow Networks for Discrete Probabilistic Modeling [118.81967600750428]
エネルギーベース生成フローネットワーク(EB-GFN)について述べる。
EB-GFNは高次元離散データのための新しい確率論的モデリングアルゴリズムである。
GFlowNetsは、モード間を混在させるために、大ブロックギブスサンプリングを略して行うことができるかを示す。
論文 参考訳(メタデータ) (2022-02-03T01:27:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。