論文の概要: Multi-Agent Deep Reinforcement Learning using Attentive Graph Neural
Architectures for Real-Time Strategy Games
- arxiv url: http://arxiv.org/abs/2105.10211v1
- Date: Fri, 21 May 2021 09:05:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 09:04:55.700557
- Title: Multi-Agent Deep Reinforcement Learning using Attentive Graph Neural
Architectures for Real-Time Strategy Games
- Title(参考訳): リアルタイム戦略ゲームのための注意グラフニューラルネットワークを用いたマルチエージェント深層強化学習
- Authors: Won Joon Yun, Sungwon Yi, and Joongheon Kim
- Abstract要約: 提案するMADRLアルゴリズムでは,分散MADRLをQMIXと呼ぶ。
計算複雑性を大幅に低減できる状態分類について検討する。
最もよく知られたStarCraft IIシミュレーション環境を用いたCSGA政策の性能評価において,提案アルゴリズムは様々な環境でうまく機能することを示した。
- 参考スコア(独自算出の注目度): 11.370663646213606
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In real-time strategy (RTS) game artificial intelligence research, various
multi-agent deep reinforcement learning (MADRL) algorithms are widely and
actively used nowadays. Most of the research is based on StarCraft II
environment because it is the most well-known RTS games in world-wide. In our
proposed MADRL-based algorithm, distributed MADRL is fundamentally used that is
called QMIX. In addition to QMIX-based distributed computation, we consider
state categorization which can reduce computational complexity significantly.
Furthermore, self-attention mechanisms are used for identifying the
relationship among agents in the form of graphs. Based on these approaches, we
propose a categorized state graph attention policy (CSGA-policy). As observed
in the performance evaluation of our proposed CSGA-policy with the most
well-known StarCraft II simulation environment, our proposed algorithm works
well in various settings, as expected.
- Abstract(参考訳): 近年,リアルタイム戦略(RTS)ゲーム人工知能研究において,マルチエージェント深部強化学習(MADRL)アルゴリズムが広く利用されている。
研究の大部分はスタークラフトiiの環境に基づいているが、これは世界でもっともよく知られたrtsゲームである。
提案するMADRLアルゴリズムでは,分散MADRLをQMIXと呼ぶ。
QMIXに基づく分散計算に加えて、計算複雑性を大幅に低減できる状態分類も検討する。
さらに、グラフの形でエージェント間の関係を識別するために、セルフアテンション機構が用いられる。
これらのアプローチに基づき,分類された国家グラフ注目政策(csga-policy)を提案する。
提案手法は,最もよく知られたStarCraft IIシミュレーション環境を用いたCSGA政策の性能評価において,期待通り,様々な環境でうまく機能する。
関連論文リスト
- Provably Efficient Information-Directed Sampling Algorithms for Multi-Agent Reinforcement Learning [50.92957910121088]
本研究は,情報指向サンプリング(IDS)の原理に基づくマルチエージェント強化学習(MARL)のための新しいアルゴリズムの設計と解析を行う。
エピソディックな2プレーヤゼロサムMGに対して、ナッシュ平衡を学習するための3つのサンプル効率アルゴリズムを提案する。
我々は、Reg-MAIDSをマルチプレイヤー汎用MGに拡張し、ナッシュ平衡または粗相関平衡をサンプル効率良く学習できることを証明する。
論文 参考訳(メタデータ) (2024-04-30T06:48:56Z) - Checkmating One, by Using Many: Combining Mixture of Experts with MCTS
to Improve in Chess [20.043363738256176]
本稿では,Mixture of Experts (MoE) 法とMonte-Carlo Tree Search (MCTS) を用いて,ディープラーニングと計算チェスを統合した新しい手法を提案する。
我々のフレームワークは,MoE法とMCTS法を組み合わせることで,チェスの戦略段階と整合し,従来のワン・フォー・オールモデルから逸脱する。
私たちの経験的研究は、従来のシングルモデルフレームワークを抜いて、演奏力を大幅に改善したことを示している。
論文 参考訳(メタデータ) (2024-01-30T09:55:14Z) - Age-Based Scheduling for Mobile Edge Computing: A Deep Reinforcement
Learning Approach [58.911515417156174]
我々は情報時代(AoI)の新たな定義を提案し、再定義されたAoIに基づいて、MECシステムにおけるオンラインAoI問題を定式化する。
本稿では,システム力学の部分的知識を活用するために,PDS(Post-Decision State)を導入する。
また、PSDと深いRLを組み合わせることで、アルゴリズムの適用性、スケーラビリティ、堅牢性をさらに向上します。
論文 参考訳(メタデータ) (2023-12-01T01:30:49Z) - Scalable Deep Reinforcement Learning Algorithms for Mean Field Games [60.550128966505625]
平均フィールドゲーム (MFGs) は、非常に多くの戦略エージェントを持つゲームを効率的に近似するために導入された。
近年,モデルフリー強化学習(RL)手法を用いて,MFGの学習均衡の課題が活発化している。
MFGを解くための既存のアルゴリズムは戦略や$q$-valuesのような近似量の混合を必要とする。
本稿では,この欠点に対処する2つの手法を提案する。まず,歴史データの蒸留からニューラルネットワークへの混合戦略を学習し,Factitious Playアルゴリズムに適用する。
2つ目はオンライン混合方式である。
論文 参考訳(メタデータ) (2022-03-22T18:10:32Z) - An Efficient Application of Neuroevolution for Competitive Multiagent
Learning [0.0]
NEATは、最高のパフォーマンスのニューラルネットワークアーキテクチャを得るために使われる一般的な進化戦略である。
本稿では, NEATアルゴリズムを用いて, 変形したポンポンゲーム環境において, 競争力のあるマルチエージェント学習を実現する。
論文 参考訳(メタデータ) (2021-05-23T10:34:48Z) - The Surprising Effectiveness of MAPPO in Cooperative, Multi-Agent Games [67.47961797770249]
マルチエージェントPPO(MAPPO)は、集中型値関数を採用するマルチエージェントPPOバリアントである。
MAPPOは,3つの一般的なマルチエージェントテストベッドにおいて,最先端技術に匹敵する性能を実現していることを示す。
論文 参考訳(メタデータ) (2021-03-02T18:59:56Z) - Off-Policy Reinforcement Learning for Efficient and Effective GAN
Architecture Search [50.40004966087121]
本稿では,GANアーキテクチャ探索のための強化学習に基づくニューラルアーキテクチャ探索手法を提案する。
鍵となる考え方は、よりスムーズなアーキテクチャサンプリングのためのマルコフ決定プロセス(MDP)として、GANアーキテクチャ探索問題を定式化することである。
我々は,従来の政策によって生成されたサンプルを効率的に活用する,非政治的なGANアーキテクチャ探索アルゴリズムを利用する。
論文 参考訳(メタデータ) (2020-07-17T18:29:17Z) - Forgetful Experience Replay in Hierarchical Reinforcement Learning from
Demonstrations [55.41644538483948]
本稿では,複雑な視覚環境において,エージェントが低品質な実演を行えるようにするためのアプローチの組み合わせを提案する。
提案した目標指向のリプレイバッファ構築により,エージェントはデモにおいて複雑な階層的タスクを解くためのサブゴールを自動的に強調することができる。
私たちのアルゴリズムに基づくこのソリューションは、有名なMineRLコンペティションのすべてのソリューションを破り、エージェントがMinecraft環境でダイヤモンドをマイニングすることを可能にする。
論文 参考訳(メタデータ) (2020-06-17T15:38:40Z) - The Adversarial Resilience Learning Architecture for AI-based Modelling,
Exploration, and Operation of Complex Cyber-Physical Systems [0.0]
本稿では、複雑な環境チェックとレジリエントな操作に対する新しいアプローチを定式化する、ARL(Adversarial Learning)の概念について述べる。
ARLのクインテッサンスは、システムを探究し、ドメインの知識なしに互いに訓練するエージェントの両方にある。
本稿では、モデルベースDRLベースのアルゴリズムと同様に、広範囲のモデルフリーを使用できるARLソフトウェアアーキテクチャを紹介する。
論文 参考訳(メタデータ) (2020-05-27T19:19:57Z) - Algorithms in Multi-Agent Systems: A Holistic Perspective from
Reinforcement Learning and Game Theory [2.5147566619221515]
近年では深い強化学習が顕著な成果を上げている。
最近の研究は、シングルエージェントのシナリオを越えて学習を検討し、マルチエージェントのシナリオを検討しています。
従来のゲーム理論アルゴリズムは、現代的なアルゴリズムと組み合わせた明るいアプリケーションの約束を示し、計算能力を高める。
論文 参考訳(メタデータ) (2020-01-17T15:08:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。