論文の概要: Bayesian Ego-graph inference for Networked Multi-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2509.16606v1
- Date: Sat, 20 Sep 2025 10:09:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.883554
- Title: Bayesian Ego-graph inference for Networked Multi-Agent Reinforcement Learning
- Title(参考訳): ネットワーク型マルチエージェント強化学習のためのベイズエゴグラフ推論
- Authors: Wei Duan, Jie Lu, Junyu Xuan,
- Abstract要約: 本稿では,ネットワーク型MARLのためのグラフベースのポリシーを提案する。
ベイズ変分法による疎密なコンテキスト認識相互作用構造を学習する分散型アクターフレームであるBayesGを紹介する。
BayesGは、最大167エージェントの大規模トラフィック制御タスクにおいて、強力なMARLベースラインを上回っている。
- 参考スコア(独自算出の注目度): 16.190458233440864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In networked multi-agent reinforcement learning (Networked-MARL), decentralized agents must act under local observability and constrained communication over fixed physical graphs. Existing methods often assume static neighborhoods, limiting adaptability to dynamic or heterogeneous environments. While centralized frameworks can learn dynamic graphs, their reliance on global state access and centralized infrastructure is impractical in real-world decentralized systems. We propose a stochastic graph-based policy for Networked-MARL, where each agent conditions its decision on a sampled subgraph over its local physical neighborhood. Building on this formulation, we introduce BayesG, a decentralized actor-framework that learns sparse, context-aware interaction structures via Bayesian variational inference. Each agent operates over an ego-graph and samples a latent communication mask to guide message passing and policy computation. The variational distribution is trained end-to-end alongside the policy using an evidence lower bound (ELBO) objective, enabling agents to jointly learn both interaction topology and decision-making strategies. BayesG outperforms strong MARL baselines on large-scale traffic control tasks with up to 167 agents, demonstrating superior scalability, efficiency, and performance.
- Abstract(参考訳): ネットワーク型マルチエージェント強化学習(Networked-MARL)では、分散エージェントは局所可観測性と固定された物理グラフ上の制約された通信の下で動作しなければならない。
既存の手法はしばしば静的な近傍を仮定し、動的または異種環境への適応性を制限する。
集中型フレームワークは動的グラフを学習できるが、グローバルな状態アクセスと集中型インフラストラクチャへの依存は、現実世界の分散システムでは現実的ではない。
本稿では,ネットワーク化されたMARLに対する確率的グラフベースのポリシーを提案する。
この定式化に基づいて,ベイズ変分法によるスパース・コンテキスト認識相互作用構造を学習する分散型アクター・フレームであるベイズGを紹介する。
各エージェントはエゴグラフ上で動作し、遅延通信マスクをサンプリングしてメッセージパッシングとポリシー計算をガイドする。
変動分布は、エビデンス・ロー・バウンド(ELBO)の目的を用いてポリシーとともにエンドツーエンドで訓練され、エージェントは相互作用トポロジと意思決定戦略の両方を共同で学習することができる。
BayesGは、最大167エージェントの大規模トラフィック制御タスクにおいて強力なMARLベースラインを上回り、優れたスケーラビリティ、効率、パフォーマンスを示す。
関連論文リスト
- Power Grid Control with Graph-Based Distributed Reinforcement Learning [60.49805771047161]
この作業は、リアルタイムでスケーラブルなグリッド管理のためのグラフベースの分散強化学習フレームワークを前進させる。
グラフニューラルネットワーク(GNN)を使用して、ネットワークのトポロジ情報を単一の低レベルエージェントの観測内にエンコードする。
Grid2Opシミュレーション環境での実験は、このアプローチの有効性を示している。
論文 参考訳(メタデータ) (2025-09-02T22:17:25Z) - Q-MARL: A quantum-inspired algorithm using neural message passing for large-scale multi-agent reinforcement learning [27.014941513702183]
Q-MARLは完全に分散学習アーキテクチャである。
大規模なマルチエージェント強化学習シナリオをサポートする。
詳細な理論的分析は、改善と収束を証明している。
論文 参考訳(メタデータ) (2025-03-10T14:43:10Z) - Decentralized Learning Strategies for Estimation Error Minimization with Graph Neural Networks [94.2860766709971]
統計的に同一性を持つ無線ネットワークにおける自己回帰的マルコフ過程のサンプリングとリモート推定の課題に対処する。
我々のゴールは、分散化されたスケーラブルサンプリングおよび送信ポリシーを用いて、時間平均推定誤差と/または情報の年齢を最小化することである。
論文 参考訳(メタデータ) (2024-04-04T06:24:11Z) - Federated Multi-Agent Mapping for Planetary Exploration [0.4143603294943439]
本稿では,エージェント間のグローバルマップモデルを生データを送信することなく,協調的にトレーニングするフェデレーション型マルチエージェントマッピング手法を提案する。
提案手法は暗黙的ニューラルマッピングを利用してパシモニアスで適応可能な表現を生成し,生のマップと比較して最大93.8%のデータを伝送する。
我々は,火星の地形や氷河のデータセットに対するアプローチの有効性を実証し,F1スコアを0.95ポイントまで下方経路計画を達成するとともに,地図の復元損失に勝る結果を得た。
論文 参考訳(メタデータ) (2024-04-02T20:32:32Z) - Mean-Field Multi-Agent Reinforcement Learning: A Decentralized Network
Approach [6.802025156985356]
本稿では,MARLを状態ネットワークで学習するために,局所学習と分散実行というフレームワークを提案する。
鍵となる考え方は、エージェントの均質性を利用し、それらの状態に応じてそれらを再分類することであり、それによってネットワーク化されたマルコフ決定過程が定式化される。
論文 参考訳(メタデータ) (2021-08-05T16:52:36Z) - Learning Connectivity for Data Distribution in Robot Teams [96.39864514115136]
グラフニューラルネットワーク(GNN)を用いたアドホックネットワークにおけるデータ分散のためのタスク非依存,分散化,低レイテンシ手法を提案する。
当社のアプローチは、グローバル状態情報に基づいたマルチエージェントアルゴリズムを各ロボットで利用可能にすることで機能させます。
我々は,情報の平均年齢を報酬関数として強化学習を通じて分散gnn通信政策を訓練し,タスク固有の報酬関数と比較してトレーニング安定性が向上することを示す。
論文 参考訳(メタデータ) (2021-03-08T21:48:55Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。