論文の概要: Embarrassingly Parallel GFlowNets
- arxiv url: http://arxiv.org/abs/2406.03288v1
- Date: Wed, 5 Jun 2024 13:59:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 18:01:08.364570
- Title: Embarrassingly Parallel GFlowNets
- Title(参考訳): 恥ずかしくパラレルなGFlowNets
- Authors: Tiago da Silva, Luiz Max Carvalho, Amauri Souza, Samuel Kaski, Diego Mesquita,
- Abstract要約: GFlowNetsは、離散合成ランダム変数に対するMCMCサンプリングに代わる有望な代替品である。
EP-GFlowNet は、$R(cdot) propto R_1(cdot)... R_N(cdot)$ -- の形の製品分布から、例えば並列または連合ベイズ(英語版)でサンプルを採取するための、証明可能な正当な分割・対数法である。
- 参考スコア(独自算出の注目度): 17.751086304612667
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: GFlowNets are a promising alternative to MCMC sampling for discrete compositional random variables. Training GFlowNets requires repeated evaluations of the unnormalized target distribution or reward function. However, for large-scale posterior sampling, this may be prohibitive since it incurs traversing the data several times. Moreover, if the data are distributed across clients, employing standard GFlowNets leads to intensive client-server communication. To alleviate both these issues, we propose embarrassingly parallel GFlowNet (EP-GFlowNet). EP-GFlowNet is a provably correct divide-and-conquer method to sample from product distributions of the form $R(\cdot) \propto R_1(\cdot) ... R_N(\cdot)$ -- e.g., in parallel or federated Bayes, where each $R_n$ is a local posterior defined on a data partition. First, in parallel, we train a local GFlowNet targeting each $R_n$ and send the resulting models to the server. Then, the server learns a global GFlowNet by enforcing our newly proposed \emph{aggregating balance} condition, requiring a single communication step. Importantly, EP-GFlowNets can also be applied to multi-objective optimization and model reuse. Our experiments illustrate the EP-GFlowNets's effectiveness on many tasks, including parallel Bayesian phylogenetics, multi-objective multiset, sequence generation, and federated Bayesian structure learning.
- Abstract(参考訳): GFlowNetsは、離散合成ランダム変数に対するMCMCサンプリングに代わる有望な代替品である。
GFlowNetsのトレーニングには、正規化されていないターゲット分布や報酬関数の繰り返し評価が必要である。
しかし、大規模な後方サンプリングでは、データを何回もトラバースするため、これは禁止される可能性がある。
さらに、データがクライアント間で分散されている場合、標準のGFlowNetを使用すると、クライアントとサーバ間の通信が集中的に行われる。
これらの問題を緩和するために,我々はEP-GFlowNet(EP-GFlowNet)を恥ずかしく並列に提案する。
EP-GFlowNet は、$R(\cdot) \propto R_1(\cdot) ... の形の積分布からサンプルを採取するための、証明可能な正当な分割・対数法である。
R_N(\cdot)$ --e g, in parallel or federated Bayes, each $R_n$ はデータパーティション上に定義された局所的な後部である。
まず、R_n$をターゲットとしたローカルGFlowNetをトレーニングし、その結果のモデルをサーバに送信します。
次に、サーバは、新たに提案した 'emph{aggregating balance} 条件を適用してグローバルなGFlowNetを学習し、単一の通信ステップを必要とする。
重要なことに、EP-GFlowNetsは多目的最適化やモデルの再利用にも適用できる。
実験では, 並列ベイズ系統学, 多目的マルチセット, シーケンス生成, 結合ベイズ構造学習など, EP-GFlowNetsが多くのタスクに有効であることを示す。
関連論文リスト
- Rectifying Reinforcement Learning for Reward Matching [12.294107455811496]
我々は,GFlowNetsと統一政策の政策評価の新たなつながりを確立する。
本稿では,GFlowNetsと同じ報酬マッチング効果を達成できる新しいポリシー評価アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-04T11:11:53Z) - On the Convergence of Federated Averaging under Partial Participation for Over-parameterized Neural Networks [13.2844023993979]
フェデレートラーニング(FL)は、ローカルデータを共有せずに複数のクライアントから機械学習モデルを協調的に作成するための分散パラダイムである。
本稿では,FedAvgが世界規模で世界規模で収束していることを示す。
論文 参考訳(メタデータ) (2023-10-09T07:56:56Z) - Local Search GFlowNets [85.0053493167887]
Generative Flow Networks (GFlowNets) は、報酬に比例した離散オブジェクト上の分布を学習するアモータイズされたサンプリング手法である。
GFlowNetsは、多様なサンプルを生成する素晴らしい能力を示していますが、広いサンプル空間での過剰な探索のために、常に高い報酬を持つサンプルを生成するのに苦労することがあります。
本稿では,局所探索によるGFlowNetsの学習を提案する。
論文 参考訳(メタデータ) (2023-10-04T10:27:17Z) - Towards Understanding and Improving GFlowNet Training [71.85707593318297]
本稿では,学習したサンプリング分布と目標報酬分布を比較するための効率的な評価手法を提案する。
本稿では,高解像度のx$,相対的エッジフローポリシーのパラメータ化,新しい軌道バランス目標を提案する。
論文 参考訳(メタデータ) (2023-05-11T22:50:41Z) - Stochastic Generative Flow Networks [89.34644133901647]
生成フローネットワーク(GFlowNets)は「制御としての推論」のレンズを通して複雑な構造をサンプリングすることを学ぶ
既存のGFlowNetsは決定論的環境にのみ適用でき、動的処理によるより一般的なタスクではフェールする。
本稿では,GFlowNetsを環境に拡張する新しいアルゴリズムであるGFlowNetsを紹介する。
論文 参考訳(メタデータ) (2023-02-19T03:19:40Z) - Learning GFlowNets from partial episodes for improved convergence and
stability [56.99229746004125]
生成フローネットワーク(GFlowNets)は、非正規化対象密度の下で離散オブジェクトのシーケンシャルサンプリングを訓練するアルゴリズムである。
GFlowNetsの既存のトレーニング目的は、状態または遷移に局所的であるか、あるいはサンプリング軌道全体にわたって報酬信号を伝達する。
強化学習におけるTD($lambda$)アルゴリズムにインスパイアされたサブトラジェクティブバランス(subtrajectory balance, SubTB($lambda$)を導入する。
論文 参考訳(メタデータ) (2022-09-26T15:44:24Z) - Generative Flow Networks for Discrete Probabilistic Modeling [118.81967600750428]
エネルギーベース生成フローネットワーク(EB-GFN)について述べる。
EB-GFNは高次元離散データのための新しい確率論的モデリングアルゴリズムである。
GFlowNetsは、モード間を混在させるために、大ブロックギブスサンプリングを略して行うことができるかを示す。
論文 参考訳(メタデータ) (2022-02-03T01:27:11Z) - GFlowNet Foundations [66.69854262276391]
Generative Flow Networks (GFlowNets) は、多様な候補をアクティブな学習コンテキストでサンプリングする方法として導入された。
GFlowNetのさらなる理論的性質について述べる。
論文 参考訳(メタデータ) (2021-11-17T17:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。