論文の概要: Playing Carcassonne with Monte Carlo Tree Search
- arxiv url: http://arxiv.org/abs/2009.12974v2
- Date: Sun, 4 Oct 2020 17:49:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 03:33:54.685719
- Title: Playing Carcassonne with Monte Carlo Tree Search
- Title(参考訳): モンテカルロ木探索によるカルカソンヌの演奏
- Authors: Fred Valdez Ameneyro, Edgar Galvan, Anger Fernando Kuri Morales
- Abstract要約: 我々は,モンテカルロ木探索 (MCTS) とラピッドアクション値推定 (MCTS-RAVE) をカーカッソンヌのゲームで使用することを検討した。
MCTSをベースとした手法とStar2.5アルゴリズムの長所を比較し,カーカッソンヌのゲームにおける競争結果が得られたことを報告した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monte Carlo Tree Search (MCTS) is a relatively new sampling method with
multiple variants in the literature. They can be applied to a wide variety of
challenging domains including board games, video games, and energy-based
problems to mention a few. In this work, we explore the use of the vanilla MCTS
and the MCTS with Rapid Action Value Estimation (MCTS-RAVE) in the game of
Carcassonne, a stochastic game with a deceptive scoring system where limited
research has been conducted. We compare the strengths of the MCTS-based methods
with the Star2.5 algorithm, previously reported to yield competitive results in
the game of Carcassonne when a domain-specific heuristic is used to evaluate
the game states. We analyse the particularities of the strategies adopted by
the algorithms when they share a common reward system. The MCTS-based methods
consistently outperformed the Star2.5 algorithm given their ability to find and
follow long-term strategies, with the vanilla MCTS exhibiting a more robust
game-play than the MCTS-RAVE.
- Abstract(参考訳): モンテカルロ木探索 (monte carlo tree search, mcts) は、比較的新しいサンプリング法であり、文献には複数の変種がある。
ボードゲーム、ビデオゲーム、エネルギーベースの問題など、さまざまな課題領域に適用することができる。
本研究は,限定的な研究が行なわれている確率ゲームであるcarcassonneのゲームにおいて,バニラmctsとmctsを,迅速な動作値推定(mcts-rave)で使用することを検討するものである。
MCTSをベースとした手法とStar2.5アルゴリズムの長所を比較し,ドメイン固有のヒューリスティックを用いてゲーム状態を評価する場合,カーカッソンヌのゲームにおける競争結果が得られることを報告した。
我々は,アルゴリズムが共通報酬システムを共有する際に採用する戦略の特異性を分析する。
MCTSベースの手法は、MCTS-RAVEよりも堅牢なゲームプレイを示すバニラMCTSにより、長期戦略の発見と追跡能力から、Star2.5アルゴリズムを一貫して上回った。
関連論文リスト
- Monte-Carlo Tree Search for Multi-Agent Pathfinding: Preliminary Results [60.4817465598352]
マルチエージェントパスフィンディングに適したモンテカルロ木探索(MCTS)のオリジナル版を紹介する。
具体的には,エージェントの目標達成行動を支援するために,個別の経路を用いる。
また,木探索手順の分岐係数を低減するために,専用の分解手法を用いる。
論文 参考訳(メタデータ) (2023-07-25T12:33:53Z) - Spending Thinking Time Wisely: Accelerating MCTS with Virtual Expansions [89.89612827542972]
本稿では,モンテカルロ木探索 (MCTS) の変種を提案する。
9倍のGoボードゲームとAtariゲームの性能と計算結果を評価した。
実験の結果,提案手法は,平均検索時間50%以下で,元の検索アルゴリズムに匹敵する性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-10-23T06:39:20Z) - Continuous Monte Carlo Graph Search [61.11769232283621]
連続モンテカルログラフサーチ(Continuous Monte Carlo Graph Search, CMCGS)は、モンテカルログラフサーチ(MCTS)のオンラインプランニングへの拡張である。
CMCGSは、計画中、複数の州で同じ行動方針を共有することで高いパフォーマンスが得られるという洞察を生かしている。
並列化によってスケールアップすることができ、学習力学モデルによる連続制御においてクロスエントロピー法(CEM)よりも優れている。
論文 参考訳(メタデータ) (2022-10-04T07:34:06Z) - Combining Monte-Carlo Tree Search with Proof-Number Search [5.354801701968199]
Proof-Number Search (PNS) と Monte-Carlo Tree Search (MCTS) は様々なゲームにおいて意思決定に成功している。
本稿では,この2つの木探索手法を組み合わせたPN-MCTSという新しい手法を提案する。
実験の結果、PN-MCTSはLines of Action、MiniShogi、Knightthrough、Awariなどいくつかのゲームで基本MCTSを上回っ、94.0%の勝利率を記録した。
論文 参考訳(メタデータ) (2022-06-08T15:28:42Z) - Elastic Monte Carlo Tree Search with State Abstraction for Strategy Game
Playing [58.720142291102135]
戦略ビデオゲームは、複雑なゲーム要素によって引き起こされる検索スペースでAIエージェントに挑戦する。
状態抽象化は、状態空間の複雑さを低減する一般的なテクニックである。
我々は,状態抽象化を用いてストラテジーゲームをプレイするアルゴリズムであるElastic MCTSを提案する。
論文 参考訳(メタデータ) (2022-05-30T14:18:45Z) - On the Evolution of the MCTS Upper Confidence Bounds for Trees by Means
of Evolutionary Algorithms in the Game of Carcassonne [0.0]
Monte Carlo Tree Search (MCTS) は最適な決定を探索するためのサンプリング最優先の手法である。
我々は、進化的アルゴリズム(EA)を用いて、木上の信頼境界(UCT)の数学的表現に代えて、数学的表現を進化させる。
ES-MCTSコントローラは、堅牢なUCTコントローラを含む、これらの10個のインテリジェントコントローラよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-12-17T18:06:21Z) - MCTS Based Agents for Multistage Single-Player Card Game [0.0]
この記事では、カードゲームLord of the RingsにおけるMonte Carlo Tree Searchアルゴリズムの使用について紹介する。
主な課題はゲーム力学の複雑さであり、各ラウンドは5つの決定段階と2つのランダムステージから構成される。
様々な意思決定アルゴリズムをテストするために,ゲームシミュレータが実装されている。
論文 参考訳(メタデータ) (2021-09-24T10:56:54Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Monte Carlo Tree Search: A Review of Recent Modifications and
Applications [0.17205106391379024]
モンテカルロツリー検索(MCTS)は、ゲームプレイボットを設計したり、連続的な決定問題を解決するための強力なアプローチです。
この方法は、探索と搾取のバランスをとるインテリジェントな木探索に依存している。
しかし、この方法はより複雑なゲームでは最先端の技術となっている。
論文 参考訳(メタデータ) (2021-03-08T17:44:15Z) - Using Tabu Search Algorithm for Map Generation in the Terra Mystica
Tabletop Game [60.71662712899962]
Tabu Search (TS)メタヒューリスティックは、アルゴリズムが局所最適点から逃れることによって、単純な局所探索アルゴリズムを改善する。
本稿では,TSの性能について検討し,タブリストのサイズと周辺地域のサイズが手続き的コンテンツ生成に与える影響について考察する。
論文 参考訳(メタデータ) (2020-06-04T09:15:46Z) - Single-Agent Optimization Through Policy Iteration Using Monte-Carlo
Tree Search [8.22379888383833]
モンテカルロ・ツリー・サーチ(MCTS)と深部強化学習の組み合わせは,2プレイヤー完全情報ゲームにおける最先端の手法である。
本稿では,MCTS の変種を利用した探索アルゴリズムについて述べる。1) 潜在的に有界な報酬を持つゲームに対する新たなアクション値正規化機構,2) 効果的な探索並列化を可能にする仮想損失関数の定義,3) 世代ごとのセルフプレイによって訓練されたポリシーネットワークについて述べる。
論文 参考訳(メタデータ) (2020-05-22T18:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。