論文の概要: MAGNet: Multi-agent Graph Network for Deep Multi-agent Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2012.09762v1
- Date: Thu, 17 Dec 2020 17:19:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 13:41:29.089914
- Title: MAGNet: Multi-agent Graph Network for Deep Multi-agent Reinforcement
Learning
- Title(参考訳): MAGNet:ディープマルチエージェント強化学習のためのマルチエージェントグラフネットワーク
- Authors: Aleksandra Malysheva, Daniel Kudenko, Aleksei Shpilman
- Abstract要約: マルチエージェント強化学習のための新しい手法であるMAGnetを提案する。
我々は、最先端のMARLソリューションよりも大幅に優れていることを示す。
- 参考スコア(独自算出の注目度): 70.540936204654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over recent years, deep reinforcement learning has shown strong successes in
complex single-agent tasks, and more recently this approach has also been
applied to multi-agent domains. In this paper, we propose a novel approach,
called MAGNet, to multi-agent reinforcement learning that utilizes a relevance
graph representation of the environment obtained by a self-attention mechanism,
and a message-generation technique. We applied our MAGnet approach to the
synthetic predator-prey multi-agent environment and the Pommerman game and the
results show that it significantly outperforms state-of-the-art MARL solutions,
including Multi-agent Deep Q-Networks (MADQN), Multi-agent Deep Deterministic
Policy Gradient (MADDPG), and QMIX
- Abstract(参考訳): 近年、深層強化学習は複雑な単一エージェントタスクにおいて強い成功をおさめており、近年ではマルチエージェントドメインにもこのアプローチが適用されている。
本稿では,自己着脱機構によって得られた環境の関連性グラフ表現とメッセージ生成手法を用いたマルチエージェント強化学習のための新しい手法であるmagnetを提案する。
MAGnetのアプローチを人工捕食者によるマルチエージェント環境とポンマーマンゲームに適用し、マルチエージェントディープQ-Networks(MADQN)、マルチエージェントディープ決定ポリシーグラディエント(MADDPG)、QMIX(QMIX)など、最先端のMARLソリューションを著しく上回っていることを示す。
関連論文リスト
- MADiff: Offline Multi-agent Learning with Diffusion Models [79.18130544233794]
拡散モデル(DM)は、最近オフライン強化学習を含む様々なシナリオで大きな成功を収めた。
この問題に対処する新しい生成型マルチエージェント学習フレームワークであるMADiffを提案する。
本実験は,マルチエージェント学習タスクにおけるベースラインアルゴリズムと比較して,MADiffの優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-27T02:14:09Z) - Partially Observable Mean Field Multi-Agent Reinforcement Learning Based on Graph-Attention [12.588866091856309]
本稿では、各エージェントが一定の範囲内で他のエージェントを観察できる部分観測可能マルチエージェント強化学習(MARL)について考察する。
グラフ認識(GAMFQ)に基づく部分観測可能な平均場多エージェント強化学習法を提案する。
実験により、GAMFQは最先端の部分的に観測可能な平均場強化学習アルゴリズムを含むベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-04-25T08:38:32Z) - Learning From Good Trajectories in Offline Multi-Agent Reinforcement
Learning [98.07495732562654]
オフラインマルチエージェント強化学習(MARL)は、事前コンパイルされたデータセットから効果的なマルチエージェントポリシーを学ぶことを目的としている。
オフラインのMARLが学んだエージェントは、しばしばこのランダムなポリシーを継承し、チーム全体のパフォーマンスを脅かす。
この問題に対処するために,共有個人軌道(SIT)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-28T18:11:26Z) - Off-Policy Correction For Multi-Agent Reinforcement Learning [9.599347559588216]
マルチエージェント強化学習(MARL)は、複数の対話エージェントに関わる問題のためのフレームワークを提供する。
単エージェントの場合と明らかに類似しているにもかかわらず、マルチエージェント問題はしばしば、理論的な訓練と解析が困難である。
我々は、V-TraceをMARL設定まで拡張する、新しいオンラインアクター批判アルゴリズムMA-Traceを提案する。
論文 参考訳(メタデータ) (2021-11-22T14:23:13Z) - Towards Multi-Agent Reinforcement Learning using Quantum Boltzmann
Machines [2.015864965523243]
我々は、より困難な問題を解決するために、オリジナルの概念の拡張を提案する。
我々は、経験的なリプレイバッファを追加し、ターゲットとポリシーの値を近似するために異なるネットワークを使用します。
量子サンプリングは、強化学習タスクには有望な方法であることが証明されているが、現在はQPUサイズによって制限されている。
論文 参考訳(メタデータ) (2021-09-22T17:59:24Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Many Agent Reinforcement Learning Under Partial Observability [10.11960004698409]
我々は,平均場法よりもエージェントネットワークの幅広いクラスにおいて,最適動作を学習できることを実証した。
我々は,平均場法よりもエージェントネットワークの幅広いクラスにおいて,最適動作を学習できることを実証した。
論文 参考訳(メタデータ) (2021-06-17T21:24:29Z) - MS*: A New Exact Algorithm for Multi-agent Simultaneous Multi-goal
Sequencing and Path Finding [10.354181009277623]
監視やロジスティクスといったマルチエージェントアプリケーションでは、多数のモバイルエージェントが協調し、多数の目標地点を安全に訪問することがしばしば期待されている。
本稿では、このマルチエージェント問題に対する最適解を計算するMS*と呼ばれる新しいアルゴリズムを紹介します。
計算結果から,提案アルゴリズムは標準ラップトップ上でのCPU時間1分で20エージェント,50ゴールのマルチエージェント問題を解くことができることがわかった。
論文 参考訳(メタデータ) (2021-03-18T01:57:35Z) - FACMAC: Factored Multi-Agent Centralised Policy Gradients [103.30380537282517]
FACtored Multi-Agent Centralized Policy gradients (FACMAC)を提案する。
離散的および連続的な行動空間における協調的マルチエージェント強化学習のための新しい手法である。
我々は,マルチエージェント粒子環境の変動に対するFACMAC,新しいマルチエージェント MuJoCo ベンチマーク,およびStarCraft II マイクロマネジメントタスクの挑戦的セットについて評価した。
論文 参考訳(メタデータ) (2020-03-14T21:29:09Z) - Scalable Multi-Agent Inverse Reinforcement Learning via
Actor-Attention-Critic [54.2180984002807]
マルチエージェント逆逆強化学習 (MA-AIRL) は, 単エージェントAIRLをマルチエージェント問題に適用する最近の手法である。
本稿では,従来の手法よりもサンプル効率が高く,スケーラブルなマルチエージェント逆RLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-24T20:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。