論文の概要: Applying supervised and reinforcement learning methods to create
neural-network-based agents for playing StarCraft II
- arxiv url: http://arxiv.org/abs/2109.12691v1
- Date: Sun, 26 Sep 2021 20:08:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 08:34:15.854850
- Title: Applying supervised and reinforcement learning methods to create
neural-network-based agents for playing StarCraft II
- Title(参考訳): ニューラルネットワークを用いたスタークラフトII演奏エージェント作成のための教師付き強化学習手法の適用
- Authors: Micha{\l} Opanowicz
- Abstract要約: 本稿では,汎用的な教師付き強化学習でトレーニングしたStarCraft IIのフル2プレーヤマッチングを実現するニューラルネットワークアーキテクチャを提案する。
本実装では,ゲーム内スクリプトボットと比較して,非自明な性能を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, multiple approaches for creating agents for playing various complex
real-time computer games such as StarCraft II or Dota 2 were proposed, however,
they either embed a significant amount of expert knowledge into the agent or
use a prohibitively large for most researchers amount of computational
resources. We propose a neural network architecture for playing the full
two-player match of StarCraft II trained with general-purpose supervised and
reinforcement learning, that can be trained on a single consumer-grade PC with
a single GPU. We also show that our implementation achieves a non-trivial
performance when compared to the in-game scripted bots. We make no simplifying
assumptions about the game except for playing on a single chosen map, and we
use very little expert knowledge. In principle, our approach can be applied to
any RTS game with small modifications. While our results are far behind the
state-of-the-art large-scale approaches in terms of the final performance, we
believe our work can serve as a solid baseline for other small-scale
experiments.
- Abstract(参考訳): 近年,StarCraft II や Dota 2 のような複雑なリアルタイムコンピュータゲームにエージェントを組み込むための複数のアプローチが提案されているが,多くの専門知識をエージェントに埋め込んだり,多くの研究者の計算資源に不当に大規模に利用したりしている。
本稿では,汎用的な教師付き強化学習でトレーニングされたStarCraft IIのフル2プレーヤマッチを,単一のGPUで1台のコンシューマグレードPC上でトレーニング可能なニューラルネットワークアーキテクチャを提案する。
また,ゲーム内スクリプトボットと比較して,実装が非自明なパフォーマンスを実現することを示す。
選択した1つのマップでプレイする以外、ゲームに関する仮定を単純化することはありません。
原則として、我々の手法は小さな修正を加えて任意のRTSゲームに適用できる。
私たちの研究結果は、最終的なパフォーマンスの観点からは最先端の大規模アプローチよりもはるかに遅れていますが、我々の研究は他の小規模実験の確かなベースラインとして機能できると考えています。
関連論文リスト
- Enhancing Two-Player Performance Through Single-Player Knowledge Transfer: An Empirical Study on Atari 2600 Games [1.03590082373586]
本研究では,Atari 2600 RAMを入力状態とした10種類のAtari 2600環境における提案手法について検討した。
我々は,スクラッチから2人プレイヤ設定のトレーニングよりも,シングルプレイヤートレーニングプロセスからトランスファーラーニングを使用することの利点について論じる。
論文 参考訳(メタデータ) (2024-10-22T02:57:44Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - Technical Challenges of Deploying Reinforcement Learning Agents for Game
Testing in AAA Games [58.720142291102135]
本稿では,既存の自動ゲームテストソリューションに,スクリプト型ボットをベースとして,実験的な強化学習システムを追加する取り組みについて述べる。
ゲーム制作において強化学習を活用するためのユースケースを示し、ゲームのために同じ旅をしたいと思う人なら誰でも遭遇する最大の時間をカバーしています。
我々は、機械学習、特にゲーム生産において効果的なツールである強化学習を作るのに価値があり、必要であると考えるいくつかの研究指針を提案する。
論文 参考訳(メタデータ) (2023-07-19T18:19:23Z) - Mastering the Game of No-Press Diplomacy via Human-Regularized
Reinforcement Learning and Planning [95.78031053296513]
ノープレス外交(No-press Diplomacy)は、協力と競争の両方を含む複雑な戦略ゲームである。
我々は、人間の模倣学習ポリシーに対する報酬最大化ポリシーを規則化する、DiL-piKLと呼ばれる計画アルゴリズムを導入する。
RL-DiL-piKLと呼ばれる自己再生強化学習アルゴリズムに拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T14:47:35Z) - On Efficient Reinforcement Learning for Full-length Game of StarCraft II [21.768578136029987]
本稿では,抽出されたマクロアクションとニューラルネットワークの階層構造を含む階層的RL手法について検討する。
64x64マップと制限単位を用いて、レベル1組込みAIに対して99%の勝利率を達成する。
我々は、エージェントを不正なレベルAIに対して訓練し、レベル8、レベル9、レベル10のAIに対してそれぞれ96%、97%、94%の勝利率を達成するために、アーキテクチャを改善した。
論文 参考訳(メタデータ) (2022-09-23T12:24:21Z) - TiKick: Toward Playing Multi-agent Football Full Games from Single-agent
Demonstrations [31.596018856092513]
Tikickは、マルチエージェントのGoogle Research Footballのフルゲームを引き継ぐことができる、学習ベースのAIシステムである。
私たちの知る限りでは、Tikickは、マルチエージェントのGoogle Research Footballのフルゲームを引き継ぐことができる、初めての学習ベースのAIシステムだ。
論文 参考訳(メタデータ) (2021-10-09T08:34:58Z) - SCC: an efficient deep reinforcement learning agent mastering the game
of StarCraft II [15.612456049715123]
AlphaStarは、StarCraft IIのGrandMasterレベルに達するAIであり、深い強化学習が達成できることを示す驚くべきマイルストーンです。
我々は、深層強化学習エージェント、StarCraft Commander (SCC)を提案する。
SCCは、テストマッチでグランドマスタープレーヤーを倒し、ライブイベントでトッププロフェッショナルプレーヤーを倒す人間のパフォーマンスを実証します。
論文 参考訳(メタデータ) (2020-12-24T08:43:44Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - TStarBot-X: An Open-Sourced and Comprehensive Study for Efficient League
Training in StarCraft II Full Game [25.248034258354533]
最近、GoogleのDeepMindは、StarCraft IIのグランドマスターレベルのAIであるAlphaStarを発表した。
本稿では,TStarBot-XというAIエージェントを導入する。このエージェントはより少ない計算量で訓練され,熟練した人間プレイヤーと競争できる。
論文 参考訳(メタデータ) (2020-11-27T13:31:49Z) - Neural MMO v1.3: A Massively Multiagent Game Environment for Training
and Evaluating Neural Networks [48.5733173329785]
本稿では,MMOにインスパイアされたマルチエージェントゲーム環境であるNeural MMOを紹介する。
分散インフラストラクチャとゲームIOという,AI研究のためのマルチエージェントシステムエンジニアリングにおける,より一般的な2つの課題について論じる。
論文 参考訳(メタデータ) (2020-01-31T18:50:02Z) - Model-Based Reinforcement Learning for Atari [89.3039240303797]
エージェントがモデルフリーの手法よりも少ないインタラクションでAtariゲームを解くことができることを示す。
本実験は,エージェントと環境間の100kの相互作用の少ないデータ構造における,AtariゲームにおけるSimPLeの評価である。
論文 参考訳(メタデータ) (2019-03-01T15:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。