論文の概要: Consensus Learning for Cooperative Multi-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2206.02583v1
- Date: Mon, 6 Jun 2022 12:43:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 16:55:30.699552
- Title: Consensus Learning for Cooperative Multi-Agent Reinforcement Learning
- Title(参考訳): 協調型マルチエージェント強化学習のための合意学習
- Authors: Zhiwei Xu, Bin Zhang, Dapeng Li, Zeren Zhang, Guangchong Zhou,
Guoliang Fan
- Abstract要約: 協調型マルチエージェント強化学習のためのコンセンサス学習を提案する。
我々は、エージェントのネットワークへの明示的な入力として、推論されたコンセンサスをフィードする。
提案手法は,様々なマルチエージェント強化学習アルゴリズムに拡張することができる。
- 参考スコア(独自算出の注目度): 12.74348597962689
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Almost all multi-agent reinforcement learning algorithms without
communication follow the principle of centralized training with decentralized
execution. During centralized training, agents can be guided by the same
signals, such as the global state. During decentralized execution, however,
agents lack the shared signal. Inspired by viewpoint invariance and contrastive
learning, we propose consensus learning for cooperative multi-agent
reinforcement learning in this paper. Although based on local observations,
different agents can infer the same consensus in discrete space. During
decentralized execution, we feed the inferred consensus as an explicit input to
the network of agents, thereby developing their spirit of cooperation. Our
proposed method can be extended to various multi-agent reinforcement learning
algorithms. Moreover, we carry out them on some fully cooperative tasks and get
convincing results.
- Abstract(参考訳): コミュニケーションのないほとんど全てのマルチエージェント強化学習アルゴリズムは、分散実行を伴う集中トレーニングの原則に従っている。
集中トレーニング中、エージェントはグローバルステートのような同じ信号でガイドすることができる。
しかし、分散実行中は、エージェントは共有シグナルを欠いている。
本稿では,視点不変性とコントラスト学習にヒントを得て,協調型マルチエージェント強化学習のためのコンセンサス学習を提案する。
局所観測に基づくが、異なるエージェントは離散空間において同じコンセンサスを推測することができる。
分散実行中、推定されたコンセンサスをエージェントのネットワークへの明示的な入力として送り、協調の精神を育む。
提案手法は,様々なマルチエージェント強化学習アルゴリズムに拡張できる。
さらに,完全協力的な作業で実施し,説得力のある結果を得る。
関連論文リスト
- Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - Fully Decentralized Cooperative Multi-Agent Reinforcement Learning: A
Survey [48.77342627610471]
協調型マルチエージェント強化学習は多くの実世界の協調作業を解決する強力なツールである。
完全に分散した環境で最適な共同政策に収束できるアルゴリズムを導出することは困難である。
論文 参考訳(メタデータ) (2024-01-10T05:07:42Z) - Is Centralized Training with Decentralized Execution Framework
Centralized Enough for MARL? [27.037348104661497]
分散実行によるトレーニングは、協調的マルチエージェント強化学習のための一般的なフレームワークである。
マルチエージェント強化学習のためのCADP(Advising and Decentralized Pruning)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-27T03:15:24Z) - Dealing With Non-stationarity in Decentralized Cooperative Multi-Agent
Deep Reinforcement Learning via Multi-Timescale Learning [15.935860288840466]
分散協調深層学習(MARL)は多目的学習フレームワークである。
分散化深層MARLにおける重要な課題の1つは、複数のエージェントが同時に学習している場合の学習環境の非定常性である。
マルチスケール学習に基づく分散協調型MARLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-06T14:10:53Z) - ELIGN: Expectation Alignment as a Multi-Agent Intrinsic Reward [29.737986509769808]
本稿では,自己監督型固有報酬ELIGN-期待アライメントを提案する。
動物が周囲の動物と分散的に協力するのと同じように、期待アライメントで訓練されたエージェントは、隣人の期待に合う行動を学ぶ。
エージェント・コーディネーションは、エージェントがタスクを個別に分割し、コーディネーション・対称性を破り、敵を混乱させ、予測アライメントを通じて改善することを示す。
論文 参考訳(メタデータ) (2022-10-09T22:24:44Z) - Locality Matters: A Scalable Value Decomposition Approach for
Cooperative Multi-Agent Reinforcement Learning [52.7873574425376]
協調型マルチエージェント強化学習(MARL)は,エージェント数で指数関数的に大きい状態空間と動作空間により,スケーラビリティの問題に直面する。
本稿では,学習分散実行パラダイムに局所報酬を組み込んだ,新しい価値に基づくマルチエージェントアルゴリズム LOMAQ を提案する。
論文 参考訳(メタデータ) (2021-09-22T10:08:15Z) - Survey of Recent Multi-Agent Reinforcement Learning Algorithms Utilizing
Centralized Training [0.7588690078299698]
本稿では,集中型学習のバリエーションについて論じ,アルゴリズム的アプローチに関する最近の調査について述べる。
本研究の目的は,集中学習における情報共有機構の異なる実装が,集団協調行動にどのように影響するかを検討することである。
論文 参考訳(メタデータ) (2021-07-29T20:29:12Z) - Secure Distributed Training at Scale [65.7538150168154]
ピアの存在下でのトレーニングには、ビザンティン寛容な特殊な分散トレーニングアルゴリズムが必要である。
本稿では,コミュニケーション効率を重視したセキュアな(ビザンチン耐性)分散トレーニングのための新しいプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-21T17:00:42Z) - HAMMER: Multi-Level Coordination of Reinforcement Learning Agents via
Learned Messaging [14.960795846548029]
協調型マルチエージェント強化学習(marl)は,ディープニューラルネットワークの表現学習能力を活用することで,大きな成果を上げている。
本稿では、観測空間全体を観測できる単一の、強力な、中央のエージェントが存在する場合と、局所的な観測のみを受信できる複数の、低パワーのローカルエージェントが相互に通信できない場合について考察する。
中央エージェントの役割は、グローバル観察に基づいて、異なるローカルエージェントに送信すべきメッセージを学ぶことであるが、個々のエージェントがよりよい決定を下せるように、どのような追加情報を受け取るべきかを決定することである。
論文 参考訳(メタデータ) (2021-01-18T19:00:12Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z) - Too many cooks: Bayesian inference for coordinating multi-agent
collaboration [55.330547895131986]
協調には、エージェントが行動を調整する必要がある。
人間が協力する能力の根底にあるのは、他人を行動させる隠された精神状態を予測する能力である。
これらの能力を備えた分散型マルチエージェント学習機構であるベイズデリゲーションを開発した。
論文 参考訳(メタデータ) (2020-03-26T07:43:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。