論文の概要: Scalable Multiagent Reinforcement Learning with Collective Influence Estimation
- arxiv url: http://arxiv.org/abs/2601.08210v1
- Date: Tue, 13 Jan 2026 04:24:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.058351
- Title: Scalable Multiagent Reinforcement Learning with Collective Influence Estimation
- Title(参考訳): 集団影響推定を用いたスケーラブルなマルチエージェント強化学習
- Authors: Zhenglong Luo, Zhiyong Chen, Aoxiang Liu, Ke Pan,
- Abstract要約: 本稿では,集団影響推定ネットワークを付加したマルチエージェント学習フレームワークを提案する。
タスクオブジェクトに対する他のエージェントの集団的影響を明示的にモデル化することにより、各エージェントはクリティカルな相互作用情報を推測することができる。
実験の結果,提案手法は通信制限環境下での安定かつ効率的な協調を実現することがわかった。
- 参考スコア(独自算出の注目度): 5.050035210247092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiagent reinforcement learning (MARL) has attracted considerable attention due to its potential in addressing complex cooperative tasks. However, existing MARL approaches often rely on frequent exchanges of action or state information among agents to achieve effective coordination, which is difficult to satisfy in practical robotic systems. A common solution is to introduce estimator networks to model the behaviors of other agents and predict their actions; nevertheless, such designs cause the size and computational cost of the estimator networks to grow rapidly with the number of agents, thereby limiting scalability in large-scale systems. To address these challenges, this paper proposes a multiagent learning framework augmented with a Collective Influence Estimation Network (CIEN). By explicitly modeling the collective influence of other agents on the task object, each agent can infer critical interaction information solely from its local observations and the task object's states, enabling efficient collaboration without explicit action information exchange. The proposed framework effectively avoids network expansion as the team size increases; moreover, new agents can be incorporated without modifying the network structures of existing agents, demonstrating strong scalability. Experimental results on multiagent cooperative tasks based on the Soft Actor-Critic (SAC) algorithm show that the proposed method achieves stable and efficient coordination under communication-limited environments. Furthermore, policies trained with collective influence modeling are deployed on a real robotic platform, where experimental results indicate significantly improved robustness and deployment feasibility, along with reduced dependence on communication infrastructure.
- Abstract(参考訳): 多エージェント強化学習(MARL)は、複雑な協調作業に対処する可能性から注目されている。
しかしながら、既存のMARLアプローチは、実用的なロボットシステムでは満足できない効果的な調整を実現するために、エージェント間の頻繁なアクションや状態情報の交換に依存することが多い。
一般的な解決策は、他のエージェントの動作をモデル化し、それらの動作を予測するための推定器ネットワークを導入することである。
これらの課題に対処するため,本研究では,集団影響推定ネットワーク(CIEN)を付加したマルチエージェント学習フレームワークを提案する。
タスクオブジェクトに対する他のエージェントの集団的影響を明示的にモデル化することにより、各エージェントは、そのローカルな観察とタスクオブジェクトの状態のみからクリティカルなインタラクション情報を推論することができ、明示的なアクション情報交換なしに効率的な協調を可能にする。
さらに,既存のエージェントのネットワーク構造を変更せずに新たなエージェントを組み込むことができ,スケーラビリティが向上する。
SAC(Soft Actor-Critic)アルゴリズムに基づくマルチエージェント協調作業の実験結果から,提案手法が通信制限環境下で安定かつ効率的な協調を実現することを示す。
さらに、実際のロボットプラットフォームに、集団的影響モデリングで訓練されたポリシーを配置し、実験結果により、通信インフラへの依存の低減とともに、ロバスト性とデプロイメントの実現可能性を大幅に改善したことを示す。
関連論文リスト
- Multiagent Reinforcement Learning with Neighbor Action Estimation [5.226225544973531]
本稿では,エージェントの振る舞いを推論するための行動推定ニューラルネットワークを用いたマルチエージェント強化学習フレームワークを提案する。
工学的応用レベルでは、このフレームワークはデュアルアームロボット操作タスクで実装され、検証されている。
論文 参考訳(メタデータ) (2026-01-08T02:26:57Z) - Goal-Oriented Multi-Agent Reinforcement Learning for Decentralized Agent Teams [0.6676697660506798]
本稿では,車両がエージェントとして機能し,局地的な目標や観測に基づいて選択的にコミュニケーションできる分散マルチエージェント強化学習(MARL)フレームワークを提案する。
この目標対応コミュニケーション戦略により、エージェントは関連する情報のみを共有することができ、可視性制限を尊重しながらコラボレーションを強化することができる。
その結果,本手法は作業成功率を大幅に改善し,非協調的ベースラインに比べて時間とゴールを短縮することがわかった。
論文 参考訳(メタデータ) (2025-11-15T02:11:31Z) - Learning to Interact in World Latent for Team Coordination [53.51290193631586]
本研究は,多エージェント強化学習(MARL)におけるチーム協調を支援するために,対話型ワールドラテント(IWoL)という新しい表現学習フレームワークを提案する。
コミュニケーションプロトコルを直接モデル化することにより,エージェント間関係とタスク固有の世界情報とを協調的にキャプチャする学習可能な表現空間を構築する。
私たちの表現は、各エージェントの暗黙のラテントとしてだけでなく、コミュニケーションのための明示的なメッセージとしても使用できます。
論文 参考訳(メタデータ) (2025-09-29T22:13:39Z) - Multi-Agent Collaboration via Evolving Orchestration [55.574417128944226]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な成果を上げているが、そのモノリシックな性質は複雑な問題解決におけるスケーラビリティと効率を制限している。
LLMに基づくマルチエージェントコラボレーションのためのパウチスタイルのパラダイムを提案し,タスク状態の進化に応じて,中央集権的なオーケストレータ("puppeteer")がエージェント("puppets")を動的に指示する。
クローズドドメインおよびオープンドメインシナリオの実験により,この手法は計算コストを低減し,優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2025-05-26T07:02:17Z) - M2I2: Learning Efficient Multi-Agent Communication via Masked State Modeling and Intention Inference [10.7436449414166]
M2I2は、受信した情報を効果的に同化して活用するエージェントの能力を高めるために設計された新しいフレームワークである。
M2I2は、マスク状態モデリングと共同動作予測のための高度な能力を持つエージェントを装備する。
各種マルチエージェントタスクにおけるM2I2の評価を行い,その性能,効率,能力について検討した。
論文 参考訳(メタデータ) (2024-12-31T07:07:28Z) - Communication Learning in Multi-Agent Systems from Graph Modeling Perspective [62.13508281188895]
本稿では,エージェント間の通信アーキテクチャを学習可能なグラフとして概念化する手法を提案する。
本稿では,各エージェントに対して時間的ゲーティング機構を導入し,ある時間に共有情報を受信するかどうかの動的決定を可能にする。
論文 参考訳(メタデータ) (2024-11-01T05:56:51Z) - Towards Collaborative Intelligence: Propagating Intentions and Reasoning for Multi-Agent Coordination with Large Language Models [41.95288786980204]
現在のエージェントフレームワークは、シングルエージェント実行への依存に悩まされ、モジュール間通信が堅牢でないことが多い。
協調的なMARLにおける協調行動を可能にするための協調エージェントとして,大規模言語モデルを訓練するためのフレームワークを提案する。
伝搬ネットワークは、放送意図をチームメイト固有のコミュニケーションメッセージに変換し、指定されたチームメイトと関連する目標を共有する。
論文 参考訳(メタデータ) (2024-07-17T13:14:00Z) - Scaling Large Language Model-based Multi-Agent Collaboration [72.8998796426346]
近年の大規模言語モデル駆動型自律エージェントのブレークスルーにより、複数エージェントのコラボレーションが集団的推論を通じて各個人を上回ることが判明している。
本研究は、協調剤の連続的な添加が同様の利益をもたらすかどうかを考察する。
論文 参考訳(メタデータ) (2024-06-11T11:02:04Z) - PooL: Pheromone-inspired Communication Framework forLarge Scale
Multi-Agent Reinforcement Learning [0.0]
textbfPooLは、大規模マルチエージェント強化の textbfl に適用される間接通信フレームワークである。
PooLはフェロモンの放出と利用機構を利用して、大規模なエージェント調整を制御する。
PooLは効果的な情報を取り込み、通信コストの低い他の最先端手法よりも高い報酬を得ることができる。
論文 参考訳(メタデータ) (2022-02-20T03:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。