論文の概要: Exploring Adaptive MCTS with TD Learning in miniXCOM
- arxiv url: http://arxiv.org/abs/2210.05014v1
- Date: Mon, 10 Oct 2022 21:04:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 15:53:38.596899
- Title: Exploring Adaptive MCTS with TD Learning in miniXCOM
- Title(参考訳): miniXCOMにおけるTD学習による適応MCTSの探索
- Authors: Kimiya Saadat and Richard Zhao
- Abstract要約: 本研究では,モンテカルロ木探索(MCTS)におけるオンライン適応性について,事前学習を必要とせずに検討する。
時間差学習により改良された適応MCTSアルゴリズムMCTS-TDを提案する。
我々は,ターンベースの戦術ゲームからなる人気商業フランチャイズである miniXCOM に対して,我々の新しいアプローチを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Monte Carlo tree search (MCTS) has achieved widespread
adoption within the game community. Its use in conjunction with deep
reinforcement learning has produced success stories in many applications. While
these approaches have been implemented in various games, from simple board
games to more complicated video games such as StarCraft, the use of deep neural
networks requires a substantial training period. In this work, we explore
on-line adaptivity in MCTS without requiring pre-training. We present MCTS-TD,
an adaptive MCTS algorithm improved with temporal difference learning. We
demonstrate our new approach on the game miniXCOM, a simplified version of
XCOM, a popular commercial franchise consisting of several turn-based tactical
games, and show how adaptivity in MCTS-TD allows for improved performances
against opponents.
- Abstract(参考訳): 近年、モンテカルロ木探索(mcts)がゲームコミュニティで広く採用されている。
深層強化学習と併用することで、多くのアプリケーションで成功事例が生み出されている。
これらのアプローチは、単純なボードゲームからStarCraftのようなより複雑なビデオゲームまで、様々なゲームで実装されているが、ディープニューラルネットワークの使用には相当なトレーニング期間が必要である。
本研究では,事前学習を必要とせず,mtsのオンライン適応性を検討する。
時間差学習により改良された適応MCTSアルゴリズムMCTS-TDを提案する。
我々は,いくつかのターンベースの戦術ゲームからなる人気商業フランチャイズであるXCOMの簡易版である miniXCOM に対する新たなアプローチを実証し,MCTS-TD の適応性によって対戦相手に対するパフォーマンスが向上することを示す。
関連論文リスト
- Neural Population Learning beyond Symmetric Zero-sum Games [52.20454809055356]
我々はNuPL-JPSROという,スキルの伝達学習の恩恵を受けるニューラル集団学習アルゴリズムを導入し,ゲームの粗相関(CCE)に収束する。
本研究は, 均衡収束型集団学習を大規模かつ汎用的に実施可能であることを示す。
論文 参考訳(メタデータ) (2024-01-10T12:56:24Z) - Accelerate Multi-Agent Reinforcement Learning in Zero-Sum Games with
Subgame Curriculum Learning [65.36326734799587]
ゼロサムゲームのための新しいサブゲームカリキュラム学習フレームワークを提案する。
エージェントを以前に訪れた状態にリセットすることで、適応的な初期状態分布を採用する。
我々は,2乗距離をNE値に近似するサブゲーム選択指標を導出する。
論文 参考訳(メタデータ) (2023-10-07T13:09:37Z) - AlphaZero Gomoku [9.434566356382529]
我々は、AlphaZeroを「Five in a Row」とも呼ばれる古くからのボードゲーム「Gomoku」に拡張する。
我々のテストは、Go以外のゲームに適応するAlphaZeroの汎用性を示している。
論文 参考訳(メタデータ) (2023-09-04T00:20:06Z) - On the Evolution of the MCTS Upper Confidence Bounds for Trees by Means
of Evolutionary Algorithms in the Game of Carcassonne [0.0]
Monte Carlo Tree Search (MCTS) は最適な決定を探索するためのサンプリング最優先の手法である。
我々は、進化的アルゴリズム(EA)を用いて、木上の信頼境界(UCT)の数学的表現に代えて、数学的表現を進化させる。
ES-MCTSコントローラは、堅牢なUCTコントローラを含む、これらの10個のインテリジェントコントローラよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-12-17T18:06:21Z) - Applying supervised and reinforcement learning methods to create
neural-network-based agents for playing StarCraft II [0.0]
本稿では,汎用的な教師付き強化学習でトレーニングしたStarCraft IIのフル2プレーヤマッチングを実現するニューラルネットワークアーキテクチャを提案する。
本実装では,ゲーム内スクリプトボットと比較して,非自明な性能を実現している。
論文 参考訳(メタデータ) (2021-09-26T20:08:10Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Dual Monte Carlo Tree Search [0.0]
我々はDual MCTSが、様々な対称ゲームや非対称ゲームにおいて最も広く使われているニューラルMCTSアルゴリズムであるAlphaZeroよりも優れていることを示す。
デュアルMCTSは、2つの異なる検索木、単一のディープニューラルネットワーク、PUCB、スライドウィンドウ、およびepsilon-greedyアルゴリズムの組み合わせを使用して検索木のための新しい更新技術を使用しています。
論文 参考訳(メタデータ) (2021-03-21T23:34:11Z) - Combining Off and On-Policy Training in Model-Based Reinforcement
Learning [77.34726150561087]
MuZeroのシミュレートゲームから得られたデータを用いて、オフポリシターゲットの取得方法を提案する。
以上の結果から,これらの目標がトレーニングプロセスのスピードアップと,より高速な収束とより高い報酬につながることが示唆された。
論文 参考訳(メタデータ) (2021-02-24T10:47:26Z) - Playing Carcassonne with Monte Carlo Tree Search [0.0]
我々は,モンテカルロ木探索 (MCTS) とラピッドアクション値推定 (MCTS-RAVE) をカーカッソンヌのゲームで使用することを検討した。
MCTSをベースとした手法とStar2.5アルゴリズムの長所を比較し,カーカッソンヌのゲームにおける競争結果が得られたことを報告した。
論文 参考訳(メタデータ) (2020-09-27T22:35:53Z) - Learning from Learners: Adapting Reinforcement Learning Agents to be
Competitive in a Card Game [71.24825724518847]
本稿では,競争力のあるマルチプレイヤーカードゲームの現実的な実装を学習・プレイするために,一般的な強化学習アルゴリズムをどのように適用できるかについて検討する。
本研究は,学習エージェントに対して,エージェントが競争力を持つことの学習方法を評価するための特定のトレーニングと検証ルーチンを提案し,それらが相互の演奏スタイルにどのように適応するかを説明する。
論文 参考訳(メタデータ) (2020-04-08T14:11:05Z) - Neural MMO v1.3: A Massively Multiagent Game Environment for Training
and Evaluating Neural Networks [48.5733173329785]
本稿では,MMOにインスパイアされたマルチエージェントゲーム環境であるNeural MMOを紹介する。
分散インフラストラクチャとゲームIOという,AI研究のためのマルチエージェントシステムエンジニアリングにおける,より一般的な2つの課題について論じる。
論文 参考訳(メタデータ) (2020-01-31T18:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。