論文の概要: Value Function Factorisation with Hypergraph Convolution for Cooperative
Multi-agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2112.06771v1
- Date: Thu, 9 Dec 2021 08:40:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 16:30:22.866158
- Title: Value Function Factorisation with Hypergraph Convolution for Cooperative
Multi-agent Reinforcement Learning
- Title(参考訳): 協調型マルチエージェント強化学習のためのハイパーグラフ畳み込みを用いた値関数分解
- Authors: Yunpeng Bai, Chen Gong, Bin Zhang, Guoliang Fan, Xinwen Hou
- Abstract要約: 本稿では,ハイパーグラフ畳み込みと値分解を組み合わせた手法を提案する。
アクション値を信号として扱うことで、HGCN-Mixは、自己学習ハイパーグラフを通じて、これらの信号間の関係を探究することを目指している。
実験結果から,HGCN-MixはStarCraft II Multi-agent Challenge (SMAC)ベンチマークにおいて,最先端技術と一致するか,あるいは超えていることがわかった。
- 参考スコア(独自算出の注目度): 32.768661516953344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cooperation between agents in a multi-agent system (MAS) has become a hot
topic in recent years, and many algorithms based on centralized training with
decentralized execution (CTDE), such as VDN and QMIX, have been proposed.
However, these methods disregard the information hidden in the individual
action values. In this paper, we propose HyperGraph CoNvolution MIX (HGCN-MIX),
a method that combines hypergraph convolution with value decomposition. By
treating action values as signals, HGCN-MIX aims to explore the relationship
between these signals via a self-learning hypergraph. Experimental results
present that HGCN-MIX matches or surpasses state-of-the-art techniques in the
StarCraft II multi-agent challenge (SMAC) benchmark on various situations,
notably those with a number of agents.
- Abstract(参考訳): 近年,マルチエージェントシステム(MAS)におけるエージェント間の協調がホットな話題となり,VDNやQMIXといった分散実行(CTDE)を用いた集中学習に基づくアルゴリズムが数多く提案されている。
しかし、これらの方法は個々のアクション値に隠された情報を無視する。
本稿では,ハイパーグラフ畳み込みと値分解を組み合わせたHyperGraph CoNvolution MIX(HGCN-MIX)を提案する。
アクション値を信号として扱うことで、HGCN-MIXは自己学習ハイパーグラフを通じてこれらの信号間の関係を探究することを目指している。
実験結果から、HGCN-MIXはStarCraft IIマルチエージェントチャレンジ(SMAC)ベンチマークにおいて、様々な状況、特に多数のエージェントで、最先端技術に適合するか、超越していることがわかった。
関連論文リスト
- QTypeMix: Enhancing Multi-Agent Cooperative Strategies through Heterogeneous and Homogeneous Value Decomposition [11.170571181947274]
そこで我々はQTypeMixを提案する。これは値分解過程を均質および不均一な段階に分割する。
提案手法をSMACとSMACv2の14の地図上で検証した結果,QTypeMixは様々な課題において,最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-08-12T12:27:58Z) - Mastering Complex Coordination through Attention-based Dynamic Graph [14.855793715829954]
グラフに基づく新しい値分解法であるDAGmixを提案する。
完全なグラフの代わりに、DAGmixはトレーニング中の各タイムステップで動的グラフを生成する。
実験の結果,DAGmixは大規模シナリオにおいて従来のSOTA法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-12-07T12:02:14Z) - On the Equivalence of Graph Convolution and Mixup [70.0121263465133]
本稿では,グラフ畳み込みと混合手法の関係について検討する。
2つの穏やかな条件の下では、グラフの畳み込みはMixupの特別な形式と見なすことができる。
グラフ畳み込みネットワーク(GCN)と単純化グラフ畳み込み(SGC)をミックスアップの形で表現できることを証明し、数学的にこの等価性を確立する。
論文 参考訳(メタデータ) (2023-09-29T23:09:54Z) - Efficient Cooperation Strategy Generation in Multi-Agent Video Games via
Hypergraph Neural Network [16.226702761758595]
シングルエージェントビデオゲームにおける深層強化学習のパフォーマンスは驚くべきものだ。
しかし、研究者はマルチエージェント環境でビデオゲームを扱う際にさらに困難を抱えている。
本稿では,エージェントのハイパーグラフ構造に適応し,エージェント間の情報特徴抽出と表現の完全化にハイパーグラフ畳み込みを利用するアクタ・クリティック法に基づく新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-07T10:34:40Z) - Gated recurrent units and temporal convolutional network for multilabel
classification [122.84638446560663]
本研究は,マルチラベル分類を管理するための新しいアンサンブル手法を提案する。
提案手法のコアは,Adamグラデーション最適化アプローチの変種で訓練された,ゲート再帰単位と時間畳み込みニューラルネットワークの組み合わせである。
論文 参考訳(メタデータ) (2021-10-09T00:00:16Z) - MMD-MIX: Value Function Factorisation with Maximum Mean Discrepancy for
Cooperative Multi-Agent Reinforcement Learning [15.972363414919279]
MMD-mixは分散強化学習と値分解を組み合わせた手法である。
実験により、MDD-mixはStar Multi-Agent Challenge (SMAC)環境において、以前のベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-22T10:21:00Z) - Graph Convolutional Value Decomposition in Multi-Agent Reinforcement
Learning [9.774412108791218]
深層強化学習における値関数分解のための新しい枠組みを提案する。
特に、エージェントのチームは完全有向グラフのノードの集合であると考えている。
我々は,チーム状態-行動値関数を各エージェント毎の観察-行動値関数に分解する混合GNNモジュールを導入し,グローバルチーム報酬の分数で各エージェントに明示的なクレジット割り当てを行う。
論文 参考訳(メタデータ) (2020-10-09T18:01:01Z) - UneVEn: Universal Value Exploration for Multi-Agent Reinforcement
Learning [53.73686229912562]
我々はUniversal Value Exploration(UneVEn)と呼ばれる新しいMARLアプローチを提案する。
UneVEnは、一連の関連するタスクと、普遍的な後継機能の線形分解を同時に学習する。
一連の探索ゲームにおける実証的な結果、エージェント間の重要な調整を必要とする協調捕食・捕食作業への挑戦、およびStarCraft IIのマイクロマネジメントベンチマークは、UneVEnが他の最先端のMARLメソッドが失敗するタスクを解決できることを示している。
論文 参考訳(メタデータ) (2020-10-06T19:08:47Z) - Weighted QMIX: Expanding Monotonic Value Function Factorisation for Deep
Multi-Agent Reinforcement Learning [66.94149388181343]
本稿では,MARLのためのQ$-learningアルゴリズムの新バージョンを提案する。
Q*$をアクセスしても、最適なポリシーを回復できることを示します。
また,プレデレータープリとマルチエージェントのStarCraftベンチマークタスクの性能向上を実証した。
論文 参考訳(メタデータ) (2020-06-18T18:34:50Z) - Monotonic Value Function Factorisation for Deep Multi-Agent
Reinforcement Learning [55.20040781688844]
QMIXは、中央集権的なエンドツーエンドで分散ポリシーをトレーニングできる新しい価値ベースの手法である。
深層多エージェント強化学習のための新しいベンチマークとして,StarCraft Multi-Agent Challenge (SMAC)を提案する。
論文 参考訳(メタデータ) (2020-03-19T16:51:51Z) - FACMAC: Factored Multi-Agent Centralised Policy Gradients [103.30380537282517]
FACtored Multi-Agent Centralized Policy gradients (FACMAC)を提案する。
離散的および連続的な行動空間における協調的マルチエージェント強化学習のための新しい手法である。
我々は,マルチエージェント粒子環境の変動に対するFACMAC,新しいマルチエージェント MuJoCo ベンチマーク,およびStarCraft II マイクロマネジメントタスクの挑戦的セットについて評価した。
論文 参考訳(メタデータ) (2020-03-14T21:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。