論文の概要: Learning Diverse Policies in MOBA Games via Macro-Goals
- arxiv url: http://arxiv.org/abs/2110.14221v1
- Date: Wed, 27 Oct 2021 07:15:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 13:13:07.469100
- Title: Learning Diverse Policies in MOBA Games via Macro-Goals
- Title(参考訳): マクロゴールによるMOBAゲームにおける多言語学習
- Authors: Yiming Gao, Bei Shi, Xueying Du, Liang Wang, Guangwei Chen, Zhenjie
Lian, Fuhao Qiu, Guoan Han, Weixuan Wang, Deheng Ye, Qiang Fu, Wei Yang,
Lanxiao Huang
- Abstract要約: MGGと呼ばれる新しいマクロゴールガイドフレームワークを提案し,MOBAゲームにおける多様なポリシーを学習する。
MGGは、人間のデモからマクロゴールとして戦略を抽象化し、これらのマクロゴールを予測するためにメタコントローラを訓練する。
MGGは異なるマッチやラインアップで多様なポリシーを実行でき、また102個のヒーローに対して最先端の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 16.91587630049241
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, many researchers have made successful progress in building the AI
systems for MOBA-game-playing with deep reinforcement learning, such as on Dota
2 and Honor of Kings. Even though these AI systems have achieved or even
exceeded human-level performance, they still suffer from the lack of policy
diversity. In this paper, we propose a novel Macro-Goals Guided framework,
called MGG, to learn diverse policies in MOBA games. MGG abstracts strategies
as macro-goals from human demonstrations and trains a Meta-Controller to
predict these macro-goals. To enhance policy diversity, MGG samples macro-goals
from the Meta-Controller prediction and guides the training process towards
these goals. Experimental results on the typical MOBA game Honor of Kings
demonstrate that MGG can execute diverse policies in different matches and
lineups, and also outperform the state-of-the-art methods over 102 heroes.
- Abstract(参考訳): 近年、多くの研究者が、Dota 2やHonor of Kingsなど、深い強化学習を伴うMOBAゲームプレイのためのAIシステムの構築に成功した。
これらのAIシステムは、人間レベルのパフォーマンスを達成または超えたとしても、政策の多様性の欠如に悩まされている。
本稿では,MOBAゲームにおける多様なポリシーを学習するための新しいマクロゴールガイドフレームワークMGGを提案する。
mggは戦略を人間のデモからマクロゴールとして抽象化し、メタコントローラを訓練してマクロゴールを予測する。
政策の多様性を高めるため、MGGはメタコントローラ予測からマクロゴールをサンプリングし、これらの目標に向けてトレーニングプロセスを導く。
典型的なmobaゲーム『honor of kings』の実験結果は、mggが異なるマッチやラインアップで多様なポリシーを実行し、102のヒーローよりも最先端の手法を上回っていることを示している。
関連論文リスト
- DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - Model-Free Opponent Shaping [1.433758865948252]
汎用ゲームのためのM-FOS(Model-Free Opponent Shaping)を提案する。
M-FOSはメタゲームで学習し、各メタステップは根底にある「インナー」ゲームのエピソードである。
文学的な学習者や、より洗練されたアルゴリズムを駆使している。
論文 参考訳(メタデータ) (2022-05-03T12:20:14Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Combining Off and On-Policy Training in Model-Based Reinforcement
Learning [77.34726150561087]
MuZeroのシミュレートゲームから得られたデータを用いて、オフポリシターゲットの取得方法を提案する。
以上の結果から,これらの目標がトレーニングプロセスのスピードアップと,より高速な収束とより高い報酬につながることが示唆された。
論文 参考訳(メタデータ) (2021-02-24T10:47:26Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z) - Towards Playing Full MOBA Games with Deep Reinforcement Learning [34.153341961273554]
MOBAゲーム(Honor of Kings、League of Legends、Dota 2など)はAIシステムに大きな課題をもたらす。
そこで本研究では,MOBAAI学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-11-25T12:52:33Z) - Supervised Learning Achieves Human-Level Performance in MOBA Games: A
Case Study of Honor of Kings [37.534249771219926]
オンラインバトルアリーナ(MOBA)ゲームにおける人間レベルのパフォーマンスを実現する,教師付き学習ベース人工知能(AI)プログラムであるJueWu-SLを提案する。
我々は,MOBAゲームプレイのマクロストラテジーとマイクロマネジメントを,教師付きとエンドツーエンドの方法でニューラルネットワークに統合する。
現在最も人気のあるMOBAであるHonor of KingsでテストされているAIは、標準的な5v5ゲームにおいて、ハイキングプレイヤーのレベルで競争力を発揮しています。
論文 参考訳(メタデータ) (2020-11-25T08:45:55Z) - Enhanced Rolling Horizon Evolution Algorithm with Opponent Model
Learning: Results for the Fighting Game AI Competition [9.75720700239984]
本稿では,RHEA(Rolling Horizon Evolution Algorithm)と対向モデル学習を組み合わせた新しいアルゴリズムを提案する。
2019年の競争で上位5つのボットのうち、モンテカルロツリーサーチ(MCTS)を使用しないボットは、ポリシーグラディエントベースの対戦モデルによるボットのみである。
論文 参考訳(メタデータ) (2020-03-31T04:44:33Z) - HMRL: Hyper-Meta Learning for Sparse Reward Reinforcement Learning
Problem [107.52043871875898]
スパース報酬RL問題のためのメタ強化学習フレームワークHyper-Meta RL(HMRL)を開発した。
異なる環境に適応するために共通のメタ状態空間を構築するクロス環境メタ状態埋め込みモジュールを含む3つのモジュールで構成されている。
スパース・リワード環境を用いた実験は、伝達性および政策学習効率の両方においてHMRLの優位性を示す。
論文 参考訳(メタデータ) (2020-02-11T07:31:11Z) - Neural MMO v1.3: A Massively Multiagent Game Environment for Training
and Evaluating Neural Networks [48.5733173329785]
本稿では,MMOにインスパイアされたマルチエージェントゲーム環境であるNeural MMOを紹介する。
分散インフラストラクチャとゲームIOという,AI研究のためのマルチエージェントシステムエンジニアリングにおける,より一般的な2つの課題について論じる。
論文 参考訳(メタデータ) (2020-01-31T18:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。