論文の概要: Elastic Monte Carlo Tree Search with State Abstraction for Strategy Game
Playing
- arxiv url: http://arxiv.org/abs/2205.15126v1
- Date: Mon, 30 May 2022 14:18:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 20:23:44.375564
- Title: Elastic Monte Carlo Tree Search with State Abstraction for Strategy Game
Playing
- Title(参考訳): 戦略ゲームのための状態抽象化を用いた弾性モンテカルロ木探索
- Authors: Linjie Xu, Jorge Hurtado-Grueso, Dominic Jeurissen, Diego Perez
Liebana, Alexander Dockhorn
- Abstract要約: 戦略ビデオゲームは、複雑なゲーム要素によって引き起こされる検索スペースでAIエージェントに挑戦する。
状態抽象化は、状態空間の複雑さを低減する一般的なテクニックである。
我々は,状態抽象化を用いてストラテジーゲームをプレイするアルゴリズムであるElastic MCTSを提案する。
- 参考スコア(独自算出の注目度): 58.720142291102135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Strategy video games challenge AI agents with their combinatorial search
space caused by complex game elements. State abstraction is a popular technique
that reduces the state space complexity. However, current state abstraction
methods for games depend on domain knowledge, making their application to new
games expensive. State abstraction methods that require no domain knowledge are
studied extensively in the planning domain. However, no evidence shows they
scale well with the complexity of strategy games. In this paper, we propose
Elastic MCTS, an algorithm that uses state abstraction to play strategy games.
In Elastic MCTS, the nodes of the tree are clustered dynamically, first grouped
together progressively by state abstraction, and then separated when an
iteration threshold is reached. The elastic changes benefit from efficient
searching brought by state abstraction but avoid the negative influence of
using state abstraction for the whole search. To evaluate our method, we make
use of the general strategy games platform Stratega to generate scenarios of
varying complexity. Results show that Elastic MCTS outperforms MCTS baselines
with a large margin, while reducing the tree size by a factor of $10$. Code can
be found at: https://github.com/egg-west/Stratega
- Abstract(参考訳): 戦略ビデオゲームは、複雑なゲーム要素によって引き起こされる組合せ探索空間でAIエージェントに挑戦する。
状態抽象化は、状態空間の複雑さを減らす一般的なテクニックである。
しかし、現在のゲーム状態の抽象化手法はドメインの知識に依存しており、新しいゲームへの応用は高価である。
ドメイン知識を必要としない状態抽象化メソッドは、計画ドメインで広く研究されている。
しかし、戦略ゲームの複雑さに優れたスケールを示す証拠は存在しない。
本稿では,状態抽象化を用いてストラテジーゲームをプレイするアルゴリズムであるElastic MCTSを提案する。
Elastic MCTSでは、ツリーのノードは動的にクラスタ化され、まず状態抽象化によって徐々にグループ化され、次にイテレーションしきい値に達すると分離される。
弾性的な変化は、状態抽象化による効率的な探索の恩恵を受けるが、全体の探索に状態抽象化を使用することによる負の影響を避ける。
提案手法を評価するために,汎用戦略ゲームプラットフォームstrategaを用いて,複雑性の異なるシナリオを生成する。
その結果、Elastic MCTSはMCTSベースラインを大きなマージンで上回り、ツリーサイズを10ドル削減した。
コードは以下のとおり。 https://github.com/egg-west/stratega
関連論文リスト
- Strategy Game-Playing with Size-Constrained State Abstraction [44.99833362998488]
戦略ゲームは人工知能(AI)にとって難しい問題である
主な課題の1つは、ゲームコンポーネントの多様さによる巨大な検索スペースである。
状態抽象化は、検索ベースのゲームAIに適用され、大幅なパフォーマンス向上をもたらした。
論文 参考訳(メタデータ) (2024-08-12T14:50:18Z) - Spending Thinking Time Wisely: Accelerating MCTS with Virtual Expansions [89.89612827542972]
本稿では,モンテカルロ木探索 (MCTS) の変種を提案する。
9倍のGoボードゲームとAtariゲームの性能と計算結果を評価した。
実験の結果,提案手法は,平均検索時間50%以下で,元の検索アルゴリズムに匹敵する性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-10-23T06:39:20Z) - Near-Optimal No-Regret Learning for General Convex Games [121.50979258049135]
一般凸およびコンパクト戦略集合に対して後悔が得られることを示す。
我々の力学は、適度にエンハンリフトされた空間上の楽観的な従順化バウンドのインスタンス化にある。
先行結果が適用される特殊な場合であっても、我々のアルゴリズムは最先端の後悔よりも改善される。
論文 参考訳(メタデータ) (2022-06-17T12:58:58Z) - Split Moves for Monte-Carlo Tree Search [6.026538435601293]
多くのゲームにおいて、動作はプレイヤーによってなされるいくつかの決定から構成される。これらの決定は別個の動作と見なすことができ、これは効率上の理由から既にマルチアクションゲームにおいて一般的な慣習である。
我々は,モンテカルロ木探索(MCTS)における分割移動を効果的に活用する方法と,分割設計がエージェントの強度に与える影響について検討する。
論文 参考訳(メタデータ) (2021-12-14T22:06:54Z) - MDP Abstraction with Successor Features [14.433551477386318]
本研究では,エージェントが状態や時間的抽象化を行う強化学習の文脈における抽象化について検討する。
本研究では,後継機能に基づく新しい抽象スキームである後継抽象化を提案する。
我々の後継抽象化は、異なる環境間で伝達可能なセマンティクスで抽象環境モデルを学習することを可能にする。
論文 参考訳(メタデータ) (2021-10-18T11:35:08Z) - Learning Abstract Models for Strategic Exploration and Fast Reward
Transfer [85.19766065886422]
我々は,抽象状態のマルコフ決定過程(MDP)を正確に学習し,複雑なエラーを避ける。
本手法は,最も難易度の高い3つのアーケード学習環境ゲームにおいて,強力な結果をもたらす。
学習した抽象MDPを新しい報酬関数に再利用することができ、スクラッチから訓練されたモデルフリーメソッドよりも1000倍少ないサンプルで高い報酬が得られる。
論文 参考訳(メタデータ) (2020-07-12T03:33:50Z) - Single-Agent Optimization Through Policy Iteration Using Monte-Carlo
Tree Search [8.22379888383833]
モンテカルロ・ツリー・サーチ(MCTS)と深部強化学習の組み合わせは,2プレイヤー完全情報ゲームにおける最先端の手法である。
本稿では,MCTS の変種を利用した探索アルゴリズムについて述べる。1) 潜在的に有界な報酬を持つゲームに対する新たなアクション値正規化機構,2) 効果的な探索並列化を可能にする仮想損失関数の定義,3) 世代ごとのセルフプレイによって訓練されたポリシーネットワークについて述べる。
論文 参考訳(メタデータ) (2020-05-22T18:02:36Z) - Efficient exploration of zero-sum stochastic games [83.28949556413717]
ゲームプレイを通じて,ゲームの記述を明示せず,託宣のみにアクセス可能な,重要で一般的なゲーム解決環境について検討する。
限られたデュレーション学習フェーズにおいて、アルゴリズムは両方のプレイヤーのアクションを制御し、ゲームを学習し、それをうまくプレイする方法を学習する。
私たちのモチベーションは、クエリされた戦略プロファイルの支払いを評価するのにコストがかかる状況において、利用可能性の低い戦略を迅速に学習することにあります。
論文 参考訳(メタデータ) (2020-02-24T20:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。