論文の概要: Leveraging Transformers for StarCraft Macromanagement Prediction
- arxiv url: http://arxiv.org/abs/2110.05343v1
- Date: Mon, 11 Oct 2021 15:12:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 19:10:48.619251
- Title: Leveraging Transformers for StarCraft Macromanagement Prediction
- Title(参考訳): StarCraftマクロ管理予測のためのレバレッジトランス
- Authors: Muhammad Junaid Khan, Shah Hassan and Gita Sukthankar
- Abstract要約: 本稿では,StarCraft IIのマクロ管理タスクであるグローバル状態とビルド順序予測の2つのタスクに対して,トランスフォーマーベースのニューラルアーキテクチャを導入する。
電流バイアスに悩まされるリカレントニューラルネットワークとは異なり、トランスフォーマーは非常に長い時間をかけてパターンを捉えることができる。
変換器の重要な利点の一つは、それらの一般化能力であり、我々は、転送学習環境で使用する場合、我々のモデルがさらに精度良く達成できることを実証する。
- 参考スコア(独自算出の注目度): 1.5469452301122177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inspired by the recent success of transformers in natural language processing
and computer vision applications, we introduce a transformer-based neural
architecture for two key StarCraft II (SC2) macromanagement tasks: global state
and build order prediction. Unlike recurrent neural networks which suffer from
a recency bias, transformers are able to capture patterns across very long time
horizons, making them well suited for full game analysis. Our model utilizes
the MSC (Macromanagement in StarCraft II) dataset and improves on the top
performing gated recurrent unit (GRU) architecture in predicting global state
and build order as measured by mean accuracy over multiple time horizons. We
present ablation studies on our proposed architecture that support our design
decisions. One key advantage of transformers is their ability to generalize
well, and we demonstrate that our model achieves an even better accuracy when
used in a transfer learning setting in which models trained on games with one
racial matchup (e.g., Terran vs. Protoss) are transferred to a different one.
We believe that transformers' ability to model long games, potential for
parallelization, and generalization performance make them an excellent choice
for StarCraft agents.
- Abstract(参考訳): 近年の自然言語処理およびコンピュータビジョンアプリケーションにおけるトランスフォーマーの成功に触発されて,starcraft ii (sc2) の主要マクロ管理タスクである global state と build order prediction のためのトランスフォーマーベースのニューラルアーキテクチャを紹介する。
カレントバイアスに苦しむリカレントニューラルネットワークとは異なり、トランスフォーマーは非常に長い時間軸にわたってパターンをキャプチャできるため、完全なゲーム解析に適しています。
本モデルでは,msc(macro management in starcraft ii)データセットを利用し,gru(gated recurrent unit)アーキテクチャ上で,複数の時間軸の平均精度で測定したグローバル状態とビルド順序の予測を行う。
提案する設計決定を支援するアーキテクチャに関するアブレーション研究について述べる。
トランスフォーマーの1つの重要な利点は、うまく一般化する能力であり、我々のモデルは、1つの人種的マッチング(例えば、terran対protos)を持つゲームでトレーニングされたモデルが別のモデルに転送される転送学習環境において、さらに優れた精度を達成できることを示しています。
トランスフォーマーが長いゲームをモデル化する能力、並列化の可能性、一般化性能は、starcraftエージェントにとって優れた選択であると信じています。
関連論文リスト
- Transformers to SSMs: Distilling Quadratic Knowledge to Subquadratic Models [92.36510016591782]
本稿では,事前学習したトランスフォーマーアーキテクチャを,状態空間モデル(SSM)などの代替アーキテクチャに蒸留する手法を提案する。
提案手法はMOHAWKと呼ばれ、3Bトークンと5Bトークンを用いたハイブリッドバージョン(Hybrid Phi-Mamba)を用いてPhi-1.5アーキテクチャに基づくMamba-2変異体を蒸留することができる。
Phi-Mambaは、スクラッチからモデルのトレーニングに使用されるトレーニングデータの1%未満を使用してはいるが、過去のオープンソース非トランスフォーマーモデルと比較して、大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2024-08-19T17:48:11Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - Transformer-based World Models Are Happy With 100k Interactions [0.4588028371034407]
サンプル効率の良い世界モデルを構築するために,実世界のエピソードにトランスフォーマーを自己回帰的に適用する。
トランスにより、圧縮されたリカレント状態を通して見るのではなく、我々の世界モデルが以前の状態に直接アクセスすることができる。
Transformer-XLアーキテクチャを利用することで、計算効率を保ちながら長期的な依存関係を学習することができる。
論文 参考訳(メタデータ) (2023-03-13T13:43:59Z) - Multi-Game Decision Transformers [49.257185338595434]
そこで本研究では,1つのトランスフォーマーモデルを用いて,最大46個のAtariゲーム群を,人間に近いパフォーマンスで同時にプレイ可能であることを示す。
オンラインやオフラインのRL手法や行動クローンなど,マルチゲーム設定におけるいくつかのアプローチを比較した。
マルチゲーム決定変換モデルは、最高のスケーラビリティとパフォーマンスを提供します。
論文 参考訳(メタデータ) (2022-05-30T16:55:38Z) - Vision Transformers for Dense Prediction [77.34726150561087]
高密度予測タスクのバックボーンとして、畳み込みネットワークの代わりにビジョントランスを活用するアーキテクチャである高密度ビジョントランスを紹介します。
実験により,このアーキテクチャは高密度予測タスクにおいて大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2021-03-24T18:01:17Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - Transformer Networks for Trajectory Forecasting [11.802437934289062]
本稿では,トランスフォーマーネットワークを用いた軌道予測手法を提案する。
これはLSTMの逐次ステップバイステップ処理からトランスフォーマーの唯一のアテンションベースのメモリ機構への根本的な切り替えである。
論文 参考訳(メタデータ) (2020-03-18T09:17:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。