論文の概要: Supervised Learning Achieves Human-Level Performance in MOBA Games: A
Case Study of Honor of Kings
- arxiv url: http://arxiv.org/abs/2011.12582v1
- Date: Wed, 25 Nov 2020 08:45:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 01:53:26.404964
- Title: Supervised Learning Achieves Human-Level Performance in MOBA Games: A
Case Study of Honor of Kings
- Title(参考訳): MOBAゲームにおける人間レベルのパフォーマンス向上のための指導的学習--王の名誉を事例として
- Authors: Deheng Ye, Guibin Chen, Peilin Zhao, Fuhao Qiu, Bo Yuan, Wen Zhang,
Sheng Chen, Mingfei Sun, Xiaoqian Li, Siqin Li, Jing Liang, Zhenjie Lian, Bei
Shi, Liang Wang, Tengfei Shi, Qiang Fu, Wei Yang, Lanxiao Huang
- Abstract要約: オンラインバトルアリーナ(MOBA)ゲームにおける人間レベルのパフォーマンスを実現する,教師付き学習ベース人工知能(AI)プログラムであるJueWu-SLを提案する。
我々は,MOBAゲームプレイのマクロストラテジーとマイクロマネジメントを,教師付きとエンドツーエンドの方法でニューラルネットワークに統合する。
現在最も人気のあるMOBAであるHonor of KingsでテストされているAIは、標準的な5v5ゲームにおいて、ハイキングプレイヤーのレベルで競争力を発揮しています。
- 参考スコア(独自算出の注目度): 37.534249771219926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present JueWu-SL, the first supervised-learning-based artificial
intelligence (AI) program that achieves human-level performance in playing
multiplayer online battle arena (MOBA) games. Unlike prior attempts, we
integrate the macro-strategy and the micromanagement of MOBA-game-playing into
neural networks in a supervised and end-to-end manner. Tested on Honor of
Kings, the most popular MOBA at present, our AI performs competitively at the
level of High King players in standard 5v5 games.
- Abstract(参考訳): マルチプレイヤーオンラインバトルアリーナ(MOBA)ゲームにおいて人間レベルのパフォーマンスを実現する,教師付き学習ベース人工知能(AI)プログラムであるJueWu-SLを提案する。
従来の試みとは異なり、マクロ戦略とMOBAゲームプレイのマイクロマネジメントを、教師付きとエンドツーエンドの方法でニューラルネットワークに統合する。
現在最も人気のあるMOBAであるHonor of KingsでテストされているAIは、標準的な5v5ゲームでハイキングプレイヤーのレベルで競争力を発揮する。
関連論文リスト
- DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - Mastering the Game of No-Press Diplomacy via Human-Regularized
Reinforcement Learning and Planning [95.78031053296513]
ノープレス外交(No-press Diplomacy)は、協力と競争の両方を含む複雑な戦略ゲームである。
我々は、人間の模倣学習ポリシーに対する報酬最大化ポリシーを規則化する、DiL-piKLと呼ばれる計画アルゴリズムを導入する。
RL-DiL-piKLと呼ばれる自己再生強化学習アルゴリズムに拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T14:47:35Z) - Honor of Kings Arena: an Environment for Generalization in Competitive
Reinforcement Learning [36.43768953313382]
本稿では,王の名誉に基づく強化学習環境である王の名誉について紹介する。
競争強化学習のための新しい一般化課題を提示する。
論文 参考訳(メタデータ) (2022-09-18T06:29:27Z) - Learning Diverse Policies in MOBA Games via Macro-Goals [16.91587630049241]
MGGと呼ばれる新しいマクロゴールガイドフレームワークを提案し,MOBAゲームにおける多様なポリシーを学習する。
MGGは、人間のデモからマクロゴールとして戦略を抽象化し、これらのマクロゴールを予測するためにメタコントローラを訓練する。
MGGは異なるマッチやラインアップで多様なポリシーを実行でき、また102個のヒーローに対して最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-27T07:15:42Z) - Towards Playing Full MOBA Games with Deep Reinforcement Learning [34.153341961273554]
MOBAゲーム(Honor of Kings、League of Legends、Dota 2など)はAIシステムに大きな課題をもたらす。
そこで本研究では,MOBAAI学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-11-25T12:52:33Z) - TotalBotWar: A New Pseudo Real-time Multi-action Game Challenge and
Competition for AI [62.997667081978825]
TotalBotWarは、ゲームAIのための新しい擬似リアルタイムマルチアクションチャレンジだ。
ゲームはTotalWarのゲームシリーズに基づいており、プレイヤーは敵のゲームに勝つために軍隊を管理する。
論文 参考訳(メタデータ) (2020-09-18T09:13:56Z) - Suphx: Mastering Mahjong with Deep Reinforcement Learning [114.68233321904623]
我々は、新たに導入されたいくつかの技術を用いた深層強化学習に基づいて、Suphxという名のマフジョンのためのAIを設計する。
Suphxは、安定したランクの点で、ほとんどのトップの人間プレイヤーよりも強いパフォーマンスを示している。
コンピュータプログラムがマヒョンで最上位の人間プレイヤーを上回るのは、これが初めてである。
論文 参考訳(メタデータ) (2020-03-30T16:18:16Z) - Neural MMO v1.3: A Massively Multiagent Game Environment for Training
and Evaluating Neural Networks [48.5733173329785]
本稿では,MMOにインスパイアされたマルチエージェントゲーム環境であるNeural MMOを紹介する。
分散インフラストラクチャとゲームIOという,AI研究のためのマルチエージェントシステムエンジニアリングにおける,より一般的な2つの課題について論じる。
論文 参考訳(メタデータ) (2020-01-31T18:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。