論文の概要: TStarBot-X: An Open-Sourced and Comprehensive Study for Efficient League
Training in StarCraft II Full Game
- arxiv url: http://arxiv.org/abs/2011.13729v2
- Date: Fri, 30 Apr 2021 08:31:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 01:38:32.813283
- Title: TStarBot-X: An Open-Sourced and Comprehensive Study for Efficient League
Training in StarCraft II Full Game
- Title(参考訳): TStarBot-X:StarCraft IIフルゲームにおける効率的なリーグトレーニングのためのオープンソースで総合的な研究
- Authors: Lei Han, Jiechao Xiong, Peng Sun, Xinghai Sun, Meng Fang, Qingwei Guo,
Qiaobo Chen, Tengfei Shi, Hongsheng Yu, Xipeng Wu, Zhengyou Zhang
- Abstract要約: 最近、GoogleのDeepMindは、StarCraft IIのグランドマスターレベルのAIであるAlphaStarを発表した。
本稿では,TStarBot-XというAIエージェントを導入する。このエージェントはより少ない計算量で訓練され,熟練した人間プレイヤーと競争できる。
- 参考スコア(独自算出の注目度): 25.248034258354533
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: StarCraft, one of the most difficult esport games with long-standing history
of professional tournaments, has attracted generations of players and fans, and
also, intense attentions in artificial intelligence research. Recently,
Google's DeepMind announced AlphaStar, a grandmaster level AI in StarCraft II
that can play with humans using comparable action space and operations. In this
paper, we introduce a new AI agent, named TStarBot-X, that is trained under
orders of less computations and can play competitively with expert human
players. TStarBot-X takes advantage of important techniques introduced in
AlphaStar, and also benefits from substantial innovations including new league
training methods, novel multi-agent roles, rule-guided policy search,
stabilized policy improvement, lightweight neural network architecture, and
importance sampling in imitation learning, etc. We show that with orders of
less computation scale, a faithful reimplementation of AlphaStar's methods can
not succeed and the proposed techniques are necessary to ensure TStarBot-X's
competitive performance. We reveal all technical details that are complementary
to those mentioned in AlphaStar, showing the most sensitive parts in league
training, reinforcement learning and imitation learning that affect the
performance of the agents. Most importantly, this is an open-sourced study that
all codes and resources (including the trained model parameters) are publicly
accessible via \url{https://github.com/tencent-ailab/tleague_projpage}. We
expect this study could be beneficial for both academic and industrial future
research in solving complex problems like StarCraft, and also, might provide a
sparring partner for all StarCraft II players and other AI agents.
- Abstract(参考訳): StarCraftは、長年のプロトーナメントの歴史を持つ最も難しいエスポートゲームの一つで、代々のプレイヤーやファンを惹きつけ、人工知能研究にも大きな注目を集めている。
最近、googleのdeepmindはalphastarを発表した。alphastarはstarcraft iiのグランドマスターレベルのaiで、同等のアクションスペースと操作を使って人間と遊ぶことができる。
本稿では,TStarBot-XというAIエージェントを導入する。このエージェントはより少ない計算量で訓練され,熟練した人間プレイヤーと競争できる。
TStarBot-XはAlphaStarで導入された重要な技術を活用し、新しいリーグトレーニング方法、新しいマルチエージェントロール、ルール誘導ポリシーサーチ、安定化されたポリシー改善、軽量ニューラルネットワークアーキテクチャ、模倣学習における重要サンプリングなどの重要なイノベーションの恩恵を受けている。
計算規模が小さくなると、AlphaStarの手法の忠実な再実装は成功せず、提案手法はTStarBot-Xの競合性能を保証するために必要であることを示す。
我々はAlphaStarで言及されているすべての技術的詳細を明らかにし、リーグトレーニング、強化学習およびエージェントのパフォーマンスに影響を与える模倣学習において最も敏感な部分を示す。
最も重要なことは、すべてのコードとリソース(トレーニング済みのモデルパラメータを含む)が、 \url{https://github.com/tencent-ailab/tleague_projpage}を介して一般にアクセス可能であることである。
この研究は、starcraftのような複雑な問題を解決するための学術研究と産業研究の両方にとって有益であり、starcraft iiのすべてのプレイヤーと他のaiエージェントにとってスパーリングパートナーになるかもしれない。
関連論文リスト
- DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - AlphaStar Unplugged: Large-Scale Offline Reinforcement Learning [38.75717733273262]
StarCraft IIは、最も難しいシミュレーションされた強化学習環境の1つである。
Blizzardは、人間のプレーヤーがプレイする何百万ものStarCraft IIゲームの大規模なデータセットをリリースした。
データセット(Blizzardのリリースのサブセット)、マシンラーニングメソッドのAPIを標準化するツール、評価プロトコルを定義します。
論文 参考訳(メタデータ) (2023-08-07T12:21:37Z) - Technical Challenges of Deploying Reinforcement Learning Agents for Game
Testing in AAA Games [58.720142291102135]
本稿では,既存の自動ゲームテストソリューションに,スクリプト型ボットをベースとして,実験的な強化学習システムを追加する取り組みについて述べる。
ゲーム制作において強化学習を活用するためのユースケースを示し、ゲームのために同じ旅をしたいと思う人なら誰でも遭遇する最大の時間をカバーしています。
我々は、機械学習、特にゲーム生産において効果的なツールである強化学習を作るのに価値があり、必要であると考えるいくつかの研究指針を提案する。
論文 参考訳(メタデータ) (2023-07-19T18:19:23Z) - DanZero: Mastering GuanDan Game with Reinforcement Learning [121.93690719186412]
カードゲームAIは、人工知能の研究において常にホットな話題となっている。
本稿では,より複雑なカードゲームであるGuanDanのためのAIプログラムの開発に専念する。
そこで我々は,強化学習技術を用いたGuanDanのためのAIプログラムDanZeroを提案する。
論文 参考訳(メタデータ) (2022-10-31T06:29:08Z) - Mastering the Game of No-Press Diplomacy via Human-Regularized
Reinforcement Learning and Planning [95.78031053296513]
ノープレス外交(No-press Diplomacy)は、協力と競争の両方を含む複雑な戦略ゲームである。
我々は、人間の模倣学習ポリシーに対する報酬最大化ポリシーを規則化する、DiL-piKLと呼ばれる計画アルゴリズムを導入する。
RL-DiL-piKLと呼ばれる自己再生強化学習アルゴリズムに拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T14:47:35Z) - On Efficient Reinforcement Learning for Full-length Game of StarCraft II [21.768578136029987]
本稿では,抽出されたマクロアクションとニューラルネットワークの階層構造を含む階層的RL手法について検討する。
64x64マップと制限単位を用いて、レベル1組込みAIに対して99%の勝利率を達成する。
我々は、エージェントを不正なレベルAIに対して訓練し、レベル8、レベル9、レベル10のAIに対してそれぞれ96%、97%、94%の勝利率を達成するために、アーキテクチャを改善した。
論文 参考訳(メタデータ) (2022-09-23T12:24:21Z) - Applying supervised and reinforcement learning methods to create
neural-network-based agents for playing StarCraft II [0.0]
本稿では,汎用的な教師付き強化学習でトレーニングしたStarCraft IIのフル2プレーヤマッチングを実現するニューラルネットワークアーキテクチャを提案する。
本実装では,ゲーム内スクリプトボットと比較して,非自明な性能を実現している。
論文 参考訳(メタデータ) (2021-09-26T20:08:10Z) - An Introduction of mini-AlphaStar [22.820438931820764]
AlphaStarと呼ばれるSC2エージェントは優れた性能を示し、グランドマスターレベルの人間選手に対して99.8%の勝利率を得る。
論文と擬似コードに基づいてミニアルファスターと呼ばれるミニスケール版を実装した。
mini-AlphaStarの目的は、オリジナルのAlphaStarの複製を提供し、大規模な問題に関するRLの将来の研究を促進することです。
論文 参考訳(メタデータ) (2021-04-14T14:31:51Z) - SCC: an efficient deep reinforcement learning agent mastering the game
of StarCraft II [15.612456049715123]
AlphaStarは、StarCraft IIのGrandMasterレベルに達するAIであり、深い強化学習が達成できることを示す驚くべきマイルストーンです。
我々は、深層強化学習エージェント、StarCraft Commander (SCC)を提案する。
SCCは、テストマッチでグランドマスタープレーヤーを倒し、ライブイベントでトッププロフェッショナルプレーヤーを倒す人間のパフォーマンスを実証します。
論文 参考訳(メタデータ) (2020-12-24T08:43:44Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z) - Suphx: Mastering Mahjong with Deep Reinforcement Learning [114.68233321904623]
我々は、新たに導入されたいくつかの技術を用いた深層強化学習に基づいて、Suphxという名のマフジョンのためのAIを設計する。
Suphxは、安定したランクの点で、ほとんどのトップの人間プレイヤーよりも強いパフォーマンスを示している。
コンピュータプログラムがマヒョンで最上位の人間プレイヤーを上回るのは、これが初めてである。
論文 参考訳(メタデータ) (2020-03-30T16:18:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。