論文の概要: A Theory of Multi-Agent Generative Flow Networks
- arxiv url: http://arxiv.org/abs/2509.20408v1
- Date: Wed, 24 Sep 2025 04:01:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.511033
- Title: A Theory of Multi-Agent Generative Flow Networks
- Title(参考訳): マルチエージェント・ジェネレーティブ・フロー・ネットワークの理論
- Authors: Leo Maxime Brunswic, Haozhi Wang, Shuang Luo, Jianye Hao, Amir Rasouli, Yinchuan Li,
- Abstract要約: マルチエージェント生成フローネットワーク(MA-GFlowNets)の理論的枠組みを提案する。
MA-GFlowNetsは複数のエージェントに適用して、一連のジョイントアクションを通じて協調的にオブジェクトを生成する。
ジョイントフロートレーニングは、(局所的な)GFNのコレクションをユニークな(グローバルな)GFNとしてトレーニングするための、ローカル・グローバルの原則に基づいている。
- 参考スコア(独自算出の注目度): 65.53605277612444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative flow networks utilize a flow-matching loss to learn a stochastic policy for generating objects from a sequence of actions, such that the probability of generating a pattern can be proportional to the corresponding given reward. However, a theoretical framework for multi-agent generative flow networks (MA-GFlowNets) has not yet been proposed. In this paper, we propose the theory framework of MA-GFlowNets, which can be applied to multiple agents to generate objects collaboratively through a series of joint actions. We further propose four algorithms: a centralized flow network for centralized training of MA-GFlowNets, an independent flow network for decentralized execution, a joint flow network for achieving centralized training with decentralized execution, and its updated conditional version. Joint Flow training is based on a local-global principle allowing to train a collection of (local) GFN as a unique (global) GFN. This principle provides a loss of reasonable complexity and allows to leverage usual results on GFN to provide theoretical guarantees that the independent policies generate samples with probability proportional to the reward function. Experimental results demonstrate the superiority of the proposed framework compared to reinforcement learning and MCMC-based methods.
- Abstract(参考訳): 生成フローネットワークはフローマッチング損失を利用して、一連のアクションからオブジェクトを生成する確率ポリシーを学習し、パターンを生成する確率は対応する報酬に比例することができる。
しかし,マルチエージェント生成フローネットワーク(MA-GFlowNets)の理論的枠組みはまだ提案されていない。
本稿では,複数エージェントに適用可能なMA-GFlowNetsの理論フレームワークを提案する。
さらに,MA-GFlowNetsの集中型トレーニングのための集中型フローネットワーク,分散型実行のための独立型フローネットワーク,分散型実行による集中型トレーニングを実現する共同型フローネットワーク,条件付きバージョンを更新する4つのアルゴリズムを提案する。
ジョイントフロートレーニングは、(局所的な)GFNのコレクションをユニークな(グローバルな)GFNとしてトレーニングするための、ローカル・グローバルの原則に基づいている。
この原理は合理的な複雑性の損失を与え、GFNの通常の結果を利用して、独立ポリシーが報酬関数に比例する確率でサンプルを生成するという理論的保証を与える。
提案手法が強化学習法やMCMC法と比較して優れていることを示す実験結果を得た。
関連論文リスト
- Multi-Agent Continuous Control with Generative Flow Networks [23.07260731600958]
Generative Flow Networks (GFlowNets) は, トラジェクトリの最終状態が報酬に比例する分布から, 多様なトラジェクトリを生成することを目的としている。
本稿では,複数エージェントによる協調探索を実現するために,MACFN(Multi-Agent Generative Continuous Flow Networks)法を提案する。
論文 参考訳(メタデータ) (2024-08-13T14:12:03Z) - Generative Flow Networks as Entropy-Regularized RL [4.857649518812728]
生成フローネットワーク(ジェネレーティブフローネットワーク、英:generative flow network、GFlowNets)は、一連の行動を通じて与えられた報酬に比例確率を持つ合成対象をサンプリングするためのポリシーを訓練する手法である。
生成フローネットワークの学習作業は,エントロピー規則化強化学習問題として効率的に行うことができることを示す。
先に報告した結果とは対照的に,エントロピー的RLアプローチは,既存のGFlowNetトレーニング手法と競合する可能性がある。
論文 参考訳(メタデータ) (2023-10-19T17:31:40Z) - Stochastic Generative Flow Networks [89.34644133901647]
生成フローネットワーク(GFlowNets)は「制御としての推論」のレンズを通して複雑な構造をサンプリングすることを学ぶ
既存のGFlowNetsは決定論的環境にのみ適用でき、動的処理によるより一般的なタスクではフェールする。
本稿では,GFlowNetsを環境に拡張する新しいアルゴリズムであるGFlowNetsを紹介する。
論文 参考訳(メタデータ) (2023-02-19T03:19:40Z) - Distributional GFlowNets with Quantile Flows [73.73721901056662]
Generative Flow Networks(GFlowNets)は、エージェントが一連の意思決定ステップを通じて複雑な構造を生成するためのポリシーを学ぶ確率的サンプルの新たなファミリーである。
本研究では,GFlowNetの分散パラダイムを採用し,各フロー関数を分散化し,学習中により情報的な学習信号を提供する。
GFlowNet学習アルゴリズムは,リスク不確実性のあるシナリオを扱う上で不可欠な,リスクに敏感なポリシーを学習することができる。
論文 参考訳(メタデータ) (2023-02-11T22:06:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。