論文の概要: FCMNet: Full Communication Memory Net]{FCMNet: Full Communication Memory
Net for Team-Level Cooperation in Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2201.11994v1
- Date: Fri, 28 Jan 2022 09:12:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-31 14:49:04.721639
- Title: FCMNet: Full Communication Memory Net]{FCMNet: Full Communication Memory
Net for Team-Level Cooperation in Multi-Agent Systems
- Title(参考訳): FCMNet: Full Communication Memory Net]{FCMNet: Full Communication Memory Net for Team-Level Cooperation in Multi-Agent Systems
- Authors: Yutong Wang and Guillaume Sartoretti
- Abstract要約: 我々は、エージェントが効果的なマルチホップ通信プロトコルを同時に学習できる強化学習ベースのアプローチであるFCMNetを紹介する。
単純なマルチホップトポロジを用いて、各エージェントに各ステップで他のエージェントが逐次エンコードした情報を受信する能力を与える。
FCMNetは、すべてのStarCraft IIマイクロマネジメントタスクにおいて、最先端のコミュニケーションベースの強化学習方法より優れている。
- 参考スコア(独自算出の注目度): 15.631744703803806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralized cooperation in partially-observable multi-agent systems
requires effective communications among agents. To support this effort, this
work focuses on the class of problems where global communications are available
but may be unreliable, thus precluding differentiable communication learning
methods. We introduce FCMNet, a reinforcement learning based approach that
allows agents to simultaneously learn a) an effective multi-hop communications
protocol and b) a common, decentralized policy that enables team-level
decision-making. Specifically, our proposed method utilizes the hidden states
of multiple directional recurrent neural networks as communication messages
among agents. Using a simple multi-hop topology, we endow each agent with the
ability to receive information sequentially encoded by every other agent at
each time step, leading to improved global cooperation. We demonstrate FCMNet
on a challenging set of StarCraft II micromanagement tasks with shared rewards,
as well as a collaborative multi-agent pathfinding task with individual
rewards. There, our comparison results show that FCMNet outperforms
state-of-the-art communication-based reinforcement learning methods in all
StarCraft II micromanagement tasks, and value decomposition methods in certain
tasks. We further investigate the robustness of FCMNet under realistic
communication disturbances, such as random message loss or binarized messages
(i.e., non-differentiable communication channels), to showcase FMCNet's
potential applicability to robotic tasks under a variety of real-world
conditions.
- Abstract(参考訳): 部分観測可能なマルチエージェントシステムにおける分散協調は、エージェント間の効果的な通信を必要とする。
この取り組みをサポートするため、本研究は、グローバルコミュニケーションが利用可能だが信頼性に欠ける可能性のある問題のクラスに焦点を当てている。
エージェントが同時に学習できる強化学習ベースのアプローチであるFCMNetを導入する。
a) 効果的なマルチホップ通信プロトコル及び
b)チームレベルの意思決定を可能にする共通の分散型政策。
具体的には,エージェント間の通信メッセージとして,複数方向リカレントニューラルネットワークの隠れ状態を利用する。
単純なマルチホップトポロジーを用いて,各エージェントに,各エージェントがシーケンシャルにエンコードした情報を各時間ステップ毎に受信する能力を与え,グローバルな協調性を改善する。
FCMNetは、共有報酬を伴うStarCraft IIマイクロマネジメントタスクの挑戦的なセットと、個別報酬を伴う協調的なマルチエージェントパスフィンディングタスクを実証する。
そこで本研究では,FCMNetがStarCraft IIマイクロマネジメントタスクにおいて,最先端のコミュニケーションに基づく強化学習手法と,特定のタスクにおける価値分解手法より優れていることを示す。
さらに,ランダムなメッセージ損失や2元化メッセージ(非微分可能通信チャネル)といった現実的通信障害下でのfcmnetのロバスト性について検討し,様々な実環境下でのロボットタスクへのfmcnetの適用可能性を示す。
関連論文リスト
- T2MAC: Targeted and Trusted Multi-Agent Communication through Selective
Engagement and Evidence-Driven Integration [15.91335141803629]
我々は、エージェントが選択的なエンゲージメントとエビデンス駆動の統合を学ぶのを助けるために、T2MAC(Targeted and Trusted Multi-Agent Communication)を提案する。
T2MACは、エージェントが個別化されたメッセージを作成し、理想的なコミュニケーションウィンドウをピンポイントし、信頼できるパートナーと対話することを可能にする。
本手法は,様々な課題を伴って,多様な協調型マルチエージェントタスクに対して評価を行う。
論文 参考訳(メタデータ) (2024-01-19T18:00:33Z) - Will 6G be Semantic Communications? Opportunities and Challenges from
Task Oriented and Secure Communications to Integrated Sensing [49.83882366499547]
本稿では,マルチタスク学習を統合した次世代(NextG)ネットワークにおけるタスク指向およびセマンティックコミュニケーションの機会と課題について検討する。
我々は、送信側の専用エンコーダと受信側の複数のタスク固有のデコーダを表すディープニューラルネットワークを用いる。
トレーニングとテストの段階において、敵対的攻撃に起因する潜在的な脆弱性を精査する。
論文 参考訳(メタデータ) (2024-01-03T04:01:20Z) - Multi-Agent Reinforcement Learning Based on Representational
Communication for Large-Scale Traffic Signal Control [13.844458247041711]
交通信号制御(TSC)は、インテリジェント交通システムにおいて難しい問題である。
大規模TSCのための通信ベースのMARLフレームワークを提案する。
私たちのフレームワークでは、各エージェントがメッセージのどの部分を誰に"送信"するかを指示する通信ポリシーを学習することができます。
論文 参考訳(メタデータ) (2023-10-03T21:06:51Z) - Multi-Receiver Task-Oriented Communications via Multi-Task Deep Learning [49.83882366499547]
本稿では、送信機が複数の受信機と通信する環境でのタスク指向通信について検討する。
複数のタスクを完了し、複数の受信機と通信する共同最適化のためのマルチタスク深層学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-14T01:34:34Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z) - Minimizing Communication while Maximizing Performance in Multi-Agent
Reinforcement Learning [5.612141846711729]
エージェント間通信は、コーディネーションを必要とするマルチエージェントタスクのパフォーマンスを著しく向上させることができる。
通信が帯域幅、電力、ネットワーク容量といったシステムの制約によって制限されるような現実世界のアプリケーションでは、送信されるメッセージの数を減らす必要がある。
性能を損なうことなく、コミュニケーションを75%削減できることを示す。
論文 参考訳(メタデータ) (2021-06-15T23:13:51Z) - Learning Connectivity for Data Distribution in Robot Teams [96.39864514115136]
グラフニューラルネットワーク(GNN)を用いたアドホックネットワークにおけるデータ分散のためのタスク非依存,分散化,低レイテンシ手法を提案する。
当社のアプローチは、グローバル状態情報に基づいたマルチエージェントアルゴリズムを各ロボットで利用可能にすることで機能させます。
我々は,情報の平均年齢を報酬関数として強化学習を通じて分散gnn通信政策を訓練し,タスク固有の報酬関数と比較してトレーニング安定性が向上することを示す。
論文 参考訳(メタデータ) (2021-03-08T21:48:55Z) - UneVEn: Universal Value Exploration for Multi-Agent Reinforcement
Learning [53.73686229912562]
我々はUniversal Value Exploration(UneVEn)と呼ばれる新しいMARLアプローチを提案する。
UneVEnは、一連の関連するタスクと、普遍的な後継機能の線形分解を同時に学習する。
一連の探索ゲームにおける実証的な結果、エージェント間の重要な調整を必要とする協調捕食・捕食作業への挑戦、およびStarCraft IIのマイクロマネジメントベンチマークは、UneVEnが他の最先端のMARLメソッドが失敗するタスクを解決できることを示している。
論文 参考訳(メタデータ) (2020-10-06T19:08:47Z) - Learning Individually Inferred Communication for Multi-Agent Cooperation [37.56115000150748]
我々はエージェントエージェントがエージェントエージェントコミュニケーションの事前学習を可能にするために、個別推論通信(I2C)を提案する。
先行知識は因果推論によって学習され、フィードフォワードニューラルネットワークによって実現される。
I2Cは通信オーバーヘッドを減らすだけでなく、様々なマルチエージェント協調シナリオのパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2020-06-11T14:07:57Z) - Learning Structured Communication for Multi-agent Reinforcement Learning [104.64584573546524]
本研究では,マルチエージェント強化学習(MARL)環境下での大規模マルチエージェント通信機構について検討する。
本稿では、より柔軟で効率的な通信トポロジを用いて、LSC(Learning Structured Communication)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-11T07:19:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。