論文の概要: Towards Playing Full MOBA Games with Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2011.12692v4
- Date: Thu, 31 Dec 2020 13:25:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 01:53:16.246128
- Title: Towards Playing Full MOBA Games with Deep Reinforcement Learning
- Title(参考訳): 深層強化学習による完全MOBAゲームを目指して
- Authors: Deheng Ye, Guibin Chen, Wen Zhang, Sheng Chen, Bo Yuan, Bo Liu, Jia
Chen, Zhao Liu, Fuhao Qiu, Hongsheng Yu, Yinyuting Yin, Bei Shi, Liang Wang,
Tengfei Shi, Qiang Fu, Wei Yang, Lanxiao Huang, Wei Liu
- Abstract要約: MOBAゲーム(Honor of Kings、League of Legends、Dota 2など)はAIシステムに大きな課題をもたらす。
そこで本研究では,MOBAAI学習パラダイムを提案する。
- 参考スコア(独自算出の注目度): 34.153341961273554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: MOBA games, e.g., Honor of Kings, League of Legends, and Dota 2, pose grand
challenges to AI systems such as multi-agent, enormous state-action space,
complex action control, etc. Developing AI for playing MOBA games has raised
much attention accordingly. However, existing work falls short in handling the
raw game complexity caused by the explosion of agent combinations, i.e.,
lineups, when expanding the hero pool in case that OpenAI's Dota AI limits the
play to a pool of only 17 heroes. As a result, full MOBA games without
restrictions are far from being mastered by any existing AI system. In this
paper, we propose a MOBA AI learning paradigm that methodologically enables
playing full MOBA games with deep reinforcement learning. Specifically, we
develop a combination of novel and existing learning techniques, including
curriculum self-play learning, policy distillation, off-policy adaption,
multi-head value estimation, and Monte-Carlo tree-search, in training and
playing a large pool of heroes, meanwhile addressing the scalability issue
skillfully. Tested on Honor of Kings, a popular MOBA game, we show how to build
superhuman AI agents that can defeat top esports players. The superiority of
our AI is demonstrated by the first large-scale performance test of MOBA AI
agent in the literature.
- Abstract(参考訳): mobaゲーム、例えば、王の名誉、伝説のリーグ、dota 2は、マルチエージェント、巨大なステートアクションスペース、複雑なアクションコントロールなど、aiシステムに大きな挑戦をもたらします。
そのため、MOBAゲームをするためのAIの開発が注目されている。
しかし、既存の作業は、エージェントの組み合わせの爆発、すなわち、OpenAIのDota AIがプレイを17人のヒーローのプールに制限した場合にヒーロープールを拡張する際に、ゲームの生の複雑さを扱うのに不足している。
その結果、制限のない完全なMOBAゲームは、既存のAIシステムによって習得されるには程遠い。
本稿では,深い強化学習を伴うMOBAの完全プレイを可能にするMOBAAI学習パラダイムを提案する。
具体的には,カリキュラムの自己プレイ学習,政策蒸留,非政治適応,マルチヘッド値推定,モンテカルロ木探索など,新たな学習手法と既存の学習手法を組み合わせて,大規模ヒーローの育成と演奏を行うとともに,スケーラビリティの問題に巧みに対処する。
人気のあるMOBAゲームであるHonor of Kingsでテストした結果、トップのスポーツプレーヤーを倒せる超人的AIエージェントを構築する方法が示された。
文献におけるMOBAAIエージェントの大規模性能試験により,我々のAIの優位性を実証した。
関連論文リスト
- Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - Sequential Item Recommendation in the MOBA Game Dota 2 [64.8963467704218]
本研究では,Dota 2における購入勧告の文脈における逐次項目推薦(SIR)モデルの適用可能性について検討する。
以上の結果から,購入順序を考慮したモデルが最も有効であることが示唆された。
他のドメインとは対照的に、我々は最新のTransformerベースのアーキテクチャをDota-350kで上回るRNNベースのモデルを見つけました。
論文 参考訳(メタデータ) (2022-01-17T14:19:17Z) - Learning Diverse Policies in MOBA Games via Macro-Goals [16.91587630049241]
MGGと呼ばれる新しいマクロゴールガイドフレームワークを提案し,MOBAゲームにおける多様なポリシーを学習する。
MGGは、人間のデモからマクロゴールとして戦略を抽象化し、これらのマクロゴールを予測するためにメタコントローラを訓練する。
MGGは異なるマッチやラインアップで多様なポリシーを実行でき、また102個のヒーローに対して最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-27T07:15:42Z) - The Dota 2 Bot Competition [0.0]
本稿では、Dota 2 BotコンペティションとそれをサポートするDota 2 AIフレームワークについて詳しく説明します。
この挑戦はmobisとai/ciの両方のゲームコンペに参加し、参加者にmoba textit defense of the ancients 2(dota2)のaiコントローラーを1v1でプレイするよう促す。
論文 参考訳(メタデータ) (2021-03-04T10:49:47Z) - Reinforcement Learning Agents for Ubisoft's Roller Champions [0.26249027950824505]
楕円形のスケート場でプレイする3v3コンペティティブマルチプレイヤースポーツゲーム「Ubisoft's Roller Champions」のRLシステムを紹介します。
私たちのシステムは,ゲームプレイの変更に伴って新しいモデルをトレーニングするために1~4日を要し,アジャイルで迅速な開発に追随するように設計されています。
我々はAIが高度な協調戦略を開発し、ボーナスとしてゲームのバランスをとるのに役立つことを観察する。
論文 参考訳(メタデータ) (2020-12-10T23:53:15Z) - Supervised Learning Achieves Human-Level Performance in MOBA Games: A
Case Study of Honor of Kings [37.534249771219926]
オンラインバトルアリーナ(MOBA)ゲームにおける人間レベルのパフォーマンスを実現する,教師付き学習ベース人工知能(AI)プログラムであるJueWu-SLを提案する。
我々は,MOBAゲームプレイのマクロストラテジーとマイクロマネジメントを,教師付きとエンドツーエンドの方法でニューラルネットワークに統合する。
現在最も人気のあるMOBAであるHonor of KingsでテストされているAIは、標準的な5v5ゲームにおいて、ハイキングプレイヤーのレベルで競争力を発揮しています。
論文 参考訳(メタデータ) (2020-11-25T08:45:55Z) - Suphx: Mastering Mahjong with Deep Reinforcement Learning [114.68233321904623]
我々は、新たに導入されたいくつかの技術を用いた深層強化学習に基づいて、Suphxという名のマフジョンのためのAIを設計する。
Suphxは、安定したランクの点で、ほとんどのトップの人間プレイヤーよりも強いパフォーマンスを示している。
コンピュータプログラムがマヒョンで最上位の人間プレイヤーを上回るのは、これが初めてである。
論文 参考訳(メタデータ) (2020-03-30T16:18:16Z) - Neural MMO v1.3: A Massively Multiagent Game Environment for Training
and Evaluating Neural Networks [48.5733173329785]
本稿では,MMOにインスパイアされたマルチエージェントゲーム環境であるNeural MMOを紹介する。
分散インフラストラクチャとゲームIOという,AI研究のためのマルチエージェントシステムエンジニアリングにおける,より一般的な2つの課題について論じる。
論文 参考訳(メタデータ) (2020-01-31T18:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。