論文の概要: A Visual Communication Map for Multi-Agent Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2002.11882v2
- Date: Tue, 23 Feb 2021 12:12:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 08:32:42.295752
- Title: A Visual Communication Map for Multi-Agent Deep Reinforcement Learning
- Title(参考訳): マルチエージェント深部強化学習のためのビジュアルコミュニケーションマップ
- Authors: Ngoc Duy Nguyen, Thanh Thi Nguyen, Doug Creighton, Saeid Nahavandi
- Abstract要約: マルチエージェント学習は、隠蔽された通信媒体を割り当てる上で大きな課題となる。
最近の研究は一般的に、エージェント間の通信を可能にするために、特殊なニューラルネットワークと強化学習を組み合わせる。
本稿では,多数のエージェントを扱うだけでなく,異種機能エージェント間の協調を可能にする,よりスケーラブルなアプローチを提案する。
- 参考スコア(独自算出の注目度): 7.003240657279981
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep reinforcement learning has been applied successfully to solve various
real-world problems and the number of its applications in the multi-agent
settings has been increasing. Multi-agent learning distinctly poses significant
challenges in the effort to allocate a concealed communication medium. Agents
receive thorough knowledge from the medium to determine subsequent actions in a
distributed nature. Apparently, the goal is to leverage the cooperation of
multiple agents to achieve a designated objective efficiently. Recent studies
typically combine a specialized neural network with reinforcement learning to
enable communication between agents. This approach, however, limits the number
of agents or necessitates the homogeneity of the system. In this paper, we have
proposed a more scalable approach that not only deals with a great number of
agents but also enables collaboration between dissimilar functional agents and
compatibly combined with any deep reinforcement learning methods. Specifically,
we create a global communication map to represent the status of each agent in
the system visually. The visual map and the environmental state are fed to a
shared-parameter network to train multiple agents concurrently. Finally, we
select the Asynchronous Advantage Actor-Critic (A3C) algorithm to demonstrate
our proposed scheme, namely Visual communication map for Multi-agent A3C
(VMA3C). Simulation results show that the use of visual communication map
improves the performance of A3C regarding learning speed, reward achievement,
and robustness in multi-agent problems.
- Abstract(参考訳): 深層強化学習は様々な現実世界の問題を解決するためにうまく適用され、マルチエージェント設定におけるそのアプリケーションの数は増加している。
マルチエージェント学習は、隠されたコミュニケーション媒体を割り当てる作業において、明らかに重大な課題をもたらす。
エージェントは媒体から詳細な知識を受け取り、その後の動作を分散した性質で決定する。
目標は、複数のエージェントの協力を利用して、指定された目的を効率的に達成することだ。
最近の研究は一般的に、エージェント間の通信を可能にするために、特殊なニューラルネットワークと強化学習を組み合わせる。
しかし、このアプローチはエージェントの数を制限するか、システムの均質性を必要とする。
本稿では,多数のエージェントを扱うだけでなく,異なる機能エージェント間のコラボレーションを可能にし,任意の深層強化学習手法と組み合わせることで,よりスケーラブルなアプローチを提案する。
具体的には,システム内の各エージェントの状態を視覚的に表現するためのグローバルコミュニケーションマップを作成する。
視覚地図と環境状態は共有パラメータネットワークに供給され、複数のエージェントを同時に訓練する。
最後に, Asynchronous Advantage Actor-Critic (A3C) アルゴリズムを選択し,提案手法,すなわちマルチエージェント A3C (VMA3C) のためのビジュアル通信マップを提案する。
シミュレーションの結果,視覚的コミュニケーションマップを用いることで,学習速度,報奨達成度,マルチエージェント問題におけるロバスト性に関するA3Cの性能が向上することがわかった。
関連論文リスト
- Communication Learning in Multi-Agent Systems from Graph Modeling Perspective [62.13508281188895]
本稿では,エージェント間の通信アーキテクチャを学習可能なグラフとして概念化する手法を提案する。
本稿では,各エージェントに対して時間的ゲーティング機構を導入し,ある時間に共有情報を受信するかどうかの動的決定を可能にする。
論文 参考訳(メタデータ) (2024-11-01T05:56:51Z) - Scaling Large-Language-Model-based Multi-Agent Collaboration [75.5241464256688]
大規模言語モデルによるエージェントのパイオニア化は、マルチエージェントコラボレーションの設計パターンを暗示している。
神経スケーリング法則に触発された本研究では,マルチエージェント協調におけるエージェントの増加に類似の原理が適用されるかを検討する。
論文 参考訳(メタデータ) (2024-06-11T11:02:04Z) - Learning Multi-Agent Communication from Graph Modeling Perspective [62.13508281188895]
本稿では,エージェント間の通信アーキテクチャを学習可能なグラフとして概念化する手法を提案する。
提案手法であるCommFormerは,通信グラフを効率よく最適化し,勾配降下によるアーキテクチャパラメータをエンドツーエンドで並列に洗練する。
論文 参考訳(メタデータ) (2024-05-14T12:40:25Z) - Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - Multi-agent Deep Covering Skill Discovery [50.812414209206054]
本稿では,複数エージェントの結合状態空間の予測被覆時間を最小化し,マルチエージェントオプションを構築するマルチエージェントDeep Covering Option Discoveryを提案する。
また、MARLプロセスにマルチエージェントオプションを採用するための新しいフレームワークを提案する。
提案アルゴリズムは,アテンション機構とエージェントの相互作用を効果的に把握し,マルチエージェントオプションの同定に成功した。
論文 参考訳(メタデータ) (2022-10-07T00:40:59Z) - Meta-CPR: Generalize to Unseen Large Number of Agents with Communication
Pattern Recognition Module [29.75594940509839]
エージェント数が異なるマルチエージェント環境をマルチタスク問題として定式化する。
本稿では,メタ強化学習(meta-RL)フレームワークを提案する。
提案フレームワークはメタ学習型通信パターン認識(CPR)モジュールを用いて通信の振る舞いを識別する。
論文 参考訳(メタデータ) (2021-12-14T08:23:04Z) - Multi-Agent Embodied Visual Semantic Navigation with Scene Prior
Knowledge [42.37872230561632]
視覚的セマンティックナビゲーションでは、ロボットは自我中心の視覚的観察を行い、目標のクラスラベルが与えられる。
既存のモデルのほとんどは単一エージェントナビゲーションにのみ有効であり、より複雑なタスクを完了すると、単一のエージェントは低効率でフォールトトレランスが低い。
本稿では,複数のエージェントが協調して複数の対象物を見つけるマルチエージェント視覚意味ナビゲーションを提案する。
論文 参考訳(メタデータ) (2021-09-20T13:31:03Z) - Collaborative Visual Navigation [69.20264563368762]
マルチエージェント視覚ナビゲーション(MAVN)のための大規模3次元データセットCollaVNを提案する。
様々なMAVN変種を探索し、この問題をより一般化する。
メモリ拡張通信フレームワークを提案する。各エージェントには、通信情報を永続的に保存するプライベートな外部メモリが備わっている。
論文 参考訳(メタデータ) (2021-07-02T15:48:16Z) - Learning to Coordinate via Multiple Graph Neural Networks [16.226702761758595]
MGANはグラフ畳み込みネットワークと値分解手法を組み合わせた新しいアルゴリズムである。
グラフネットワークの出力を可視化することにより,表現学習におけるグラフネットワークの驚くべき能力を示す。
論文 参考訳(メタデータ) (2021-04-08T04:33:00Z) - The Emergence of Adversarial Communication in Multi-Agent Reinforcement
Learning [6.18778092044887]
多くの現実世界の問題は、複数の自律エージェントの調整を必要とする。
最近の研究は、複雑なマルチエージェント協調を可能にする明示的なコミュニケーション戦略を学ぶためのグラフニューラルネットワーク(GNN)の約束を示している。
一つの利己的なエージェントが高度に操作的なコミュニケーション戦略を学習し、協調的なエージェントチームを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2020-08-06T12:48:08Z) - Counterfactual Multi-Agent Reinforcement Learning with Graph Convolution
Communication [5.5438676149999075]
本稿では,エージェントが協調してシステムの有用性を最大化する,完全協調型マルチエージェントシステムについて考察する。
マルチエージェントシステムには,エージェント間の相互作用を伝達し,理解する能力が必要である。
エージェント間の通信を可能にするアーキテクチャを開発し,各エージェントに対するシステム報酬を調整する。
論文 参考訳(メタデータ) (2020-04-01T14:36:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。