論文の概要: Honor of Kings Arena: an Environment for Generalization in Competitive
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2209.08483v1
- Date: Sun, 18 Sep 2022 06:29:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 16:24:14.903668
- Title: Honor of Kings Arena: an Environment for Generalization in Competitive
Reinforcement Learning
- Title(参考訳): キングスアリーナの栄誉:競争強化学習の一般化のための環境
- Authors: Hua Wei, Jingxiao Chen, Xiyang Ji, Hongyang Qin, Minwen Deng, Siqin
Li, Liang Wang, Weinan Zhang, Yong Yu, Lin Liu, Lanxiao Huang, Deheng Ye,
Qiang Fu, Wei Yang
- Abstract要約: 本稿では,王の名誉に基づく強化学習環境である王の名誉について紹介する。
競争強化学習のための新しい一般化課題を提示する。
- 参考スコア(独自算出の注目度): 36.43768953313382
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces Honor of Kings Arena, a reinforcement learning (RL)
environment based on Honor of Kings, one of the world's most popular games at
present. Compared to other environments studied in most previous work, ours
presents new generalization challenges for competitive reinforcement learning.
It is a multi-agent problem with one agent competing against its opponent; and
it requires the generalization ability as it has diverse targets to control and
diverse opponents to compete with. We describe the observation, action, and
reward specifications for the Honor of Kings domain and provide an open-source
Python-based interface for communicating with the game engine. We provide
twenty target heroes with a variety of tasks in Honor of Kings Arena and
present initial baseline results for RL-based methods with feasible computing
resources. Finally, we showcase the generalization challenges imposed by Honor
of Kings Arena and possible remedies to the challenges. All of the software,
including the environment-class, are publicly available at
https://github.com/tencent-ailab/hok_env . The documentation is available at
https://aiarena.tencent.com/hok/doc/ .
- Abstract(参考訳): 本稿では,現在世界で最も人気のあるゲームの一つであるHonor of Kingsをベースとした強化学習環境であるHonor of Kings Arenaを紹介する。
これまでの研究と比較すると,競争強化学習における新たな一般化課題が提示されている。
1人のエージェントが対戦相手と競い合うマルチエージェント問題であり、制御対象が多様であり、競合相手が多様であることから、一般化能力が必要である。
我々は,Honor of Kingsドメインの観察,行動,報酬の仕様を説明し,ゲームエンジンと通信するためのオープンソースのPythonベースのインターフェースを提供する。
キングス・アリーナにおけるタスクを多用した20の目標ヒーローと、実現可能な計算資源を備えたRL法の初期ベースライン結果を提供する。
最後に,アリーナ国王が課した一般化の課題と課題に対する改善の可能性を紹介する。
環境クラスを含むすべてのソフトウェアはhttps://github.com/tencent-ailab/hok_env で公開されている。
ドキュメントはhttps://aiarena.tencent.com/hok/doc/で入手できる。
関連論文リスト
- FightLadder: A Benchmark for Competitive Multi-Agent Reinforcement Learning [25.857375787748715]
我々は、リアルタイムの格闘ゲームプラットフォームであるFightLadderを紹介し、競争力のあるMARL研究を促進する。
競争ゲームのための最先端のMARLアルゴリズムの実装と評価指標のセットを提供する。
シングルプレイヤーモードで12文字を連続的に打ち破る汎用エージェントを訓練することにより,このプラットフォームの実現可能性を示す。
論文 参考訳(メタデータ) (2024-06-04T08:04:23Z) - Neural Population Learning beyond Symmetric Zero-sum Games [52.20454809055356]
我々はNuPL-JPSROという,スキルの伝達学習の恩恵を受けるニューラル集団学習アルゴリズムを導入し,ゲームの粗相関(CCE)に収束する。
本研究は, 均衡収束型集団学習を大規模かつ汎用的に実施可能であることを示す。
論文 参考訳(メタデータ) (2024-01-10T12:56:24Z) - Benchmarking Robustness and Generalization in Multi-Agent Systems: A
Case Study on Neural MMO [50.58083807719749]
IJCAI 2022で開催されている第2回Neural MMOチャレンジの結果を報告する。
この競合はマルチエージェントシステムの堅牢性と一般化をターゲットにしている。
環境ラッパー、ベースライン、可視化ツール、そしてさらなる研究のための選択されたポリシーを含むベンチマークをオープンソースにします。
論文 参考訳(メタデータ) (2023-08-30T07:16:11Z) - Centralized control for multi-agent RL in a complex Real-Time-Strategy
game [0.0]
マルチエージェント強化学習(MARL)は、共有環境で共存する複数の学習エージェントの行動を研究する。
MARLはシングルエージェントRLよりも難しい。
このプロジェクトは、Lux AI v2 KaggleコンペティションにRLを適用したエンドツーエンドエクスペリエンスを提供する。
論文 参考訳(メタデータ) (2023-04-25T17:19:05Z) - DIAMBRA Arena: a New Reinforcement Learning Platform for Research and
Experimentation [91.3755431537592]
本研究は、強化学習研究と実験のための新しいプラットフォームであるDIAMBRA Arenaを提示する。
高品質な環境のコレクションが,OpenAI Gym標準に完全に準拠したPython APIを公開している。
これらは、離散的なアクションと観測を生のピクセルと追加の数値で構成したエピソディックなタスクである。
論文 参考訳(メタデータ) (2022-10-19T14:39:10Z) - Retrospective on the 2021 BASALT Competition on Learning from Human
Feedback [92.37243979045817]
競争の目的は、人間のフィードバック(LfHF)技術から学び、オープンワールドの課題を解決するエージェントへの研究を促進することであった。
LfHF技術の使用を義務付けるのではなく、ビデオゲームMinecraftで達成すべき自然言語の4つのタスクについて説明した。
チームは、様々な可能な人間のフィードバックタイプにまたがる多様なLfHFアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-04-14T17:24:54Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z) - Supervised Learning Achieves Human-Level Performance in MOBA Games: A
Case Study of Honor of Kings [37.534249771219926]
オンラインバトルアリーナ(MOBA)ゲームにおける人間レベルのパフォーマンスを実現する,教師付き学習ベース人工知能(AI)プログラムであるJueWu-SLを提案する。
我々は,MOBAゲームプレイのマクロストラテジーとマイクロマネジメントを,教師付きとエンドツーエンドの方法でニューラルネットワークに統合する。
現在最も人気のあるMOBAであるHonor of KingsでテストされているAIは、標準的な5v5ゲームにおいて、ハイキングプレイヤーのレベルで競争力を発揮しています。
論文 参考訳(メタデータ) (2020-11-25T08:45:55Z) - Griddly: A platform for AI research in games [0.0]
我々はGriddlyをゲームAI研究の新しいプラットフォームとして紹介する。
Griddlyは、高度にカスタマイズ可能なゲーム、異なるオブザーバタイプ、効率的なC++コアエンジンのユニークな組み合わせを提供する。
本稿では,RLエージェントの観察構成と一般化能力の相違について,一連の基礎実験を行った。
論文 参考訳(メタデータ) (2020-11-12T13:23:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。