論文の概要: Competing in a Complex Hidden Role Game with Information Set Monte Carlo
Tree Search
- arxiv url: http://arxiv.org/abs/2005.07156v1
- Date: Thu, 14 May 2020 17:21:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 05:23:44.999215
- Title: Competing in a Complex Hidden Role Game with Information Set Monte Carlo
Tree Search
- Title(参考訳): 情報セットモンテカルロ木探索による複雑な隠れロールゲームにおける競合
- Authors: Jack Reinhardt
- Abstract要約: Information Set Monte Carlo Tree Search (ISMCTS) のアルゴリズムは、不完全な情報ゲームにおいてモンテカルロ法を用いて以前のアルゴリズムより優れている。
本論文は,従来の隠蔽ロール機構とカードデッキのランダム性を組み合わせたソーシャル推論ボードゲームであるシークレットヒトラーに適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Advances in intelligent game playing agents have led to successes in perfect
information games like Go and imperfect information games like Poker. The
Information Set Monte Carlo Tree Search (ISMCTS) family of algorithms
outperforms previous algorithms using Monte Carlo methods in imperfect
information games. In this paper, Single Observer Information Set Monte Carlo
Tree Search (SO-ISMCTS) is applied to Secret Hitler, a popular social deduction
board game that combines traditional hidden role mechanics with the randomness
of a card deck. This combination leads to a more complex information model than
the hidden role and card deck mechanics alone. It is shown in 10108 simulated
games that SO-ISMCTS plays as well as simpler rule based agents, and
demonstrates the potential of ISMCTS algorithms in complicated information set
domains.
- Abstract(参考訳): インテリジェントなゲームプレイエージェントの進歩は、goのような完璧な情報ゲームやポーカーのような不完全な情報ゲームの成功につながった。
Information Set Monte Carlo Tree Search (ISMCTS) のアルゴリズムは、不完全な情報ゲームにおいてモンテカルロ法を用いて以前のアルゴリズムより優れている。
本稿では,従来の隠れた役割機構とカードデッキのランダム性を組み合わせた,人気のソーシャル推論ボードゲームであるシークレット・ヒトラーに対して,シングルオブザーバ情報セットモンテカルロ木探索(so-ismcts)を適用する。
この組み合わせは、隠れた役割とカードデッキの仕組みのみよりも複雑な情報モデルをもたらす。
10108のシミュレーションゲームでは、SO-ISMCTSはより単純なルールベースのエージェントとして機能し、複雑な情報集合領域におけるISMCTSアルゴリズムの可能性を示す。
関連論文リスト
- Improve Value Estimation of Q Function and Reshape Reward with Monte Carlo Tree Search [0.4450107621124637]
強化学習は、GoやAtariといった完璧な情報ゲームで大きな成功を収めた。
不完全な情報ゲームのための強化学習の研究は、より複雑なゲーム構造とランダム性のために比較的限られている。
本稿では,不完全な情報ゲームであるUnoに着目し,Q値過大評価を減らし,報酬関数を書き換えることにより,これらの問題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-15T14:31:54Z) - Transformer Based Planning in the Observation Space with Applications to Trick Taking Card Games [14.864985236886314]
我々は、GO-MCTS(Generative Observation Monte Carlo Tree Search)を提案する。
GO-MCTSは観察空間内を探索し、エージェントの観察のみに依存するモデルを用いて探索を進める。
GO-MCTSの有効性は、Hearts、Skat、The Crew: The Quest for Planet Nineなどの不完全な情報のゲームで実証されている。
論文 参考訳(メタデータ) (2024-04-19T19:41:00Z) - Monte-Carlo Tree Search for Multi-Agent Pathfinding: Preliminary Results [60.4817465598352]
マルチエージェントパスフィンディングに適したモンテカルロ木探索(MCTS)のオリジナル版を紹介する。
具体的には,エージェントの目標達成行動を支援するために,個別の経路を用いる。
また,木探索手順の分岐係数を低減するために,専用の分解手法を用いる。
論文 参考訳(メタデータ) (2023-07-25T12:33:53Z) - Regret Matching+: (In)Stability and Fast Convergence in Games [68.13214224119024]
RM+とその予測バージョンは不安定であり,他のプレイヤーが大きな後悔を味わう可能性がある。
これらの修正は、RM+による通常のゲームにおいて、個々の後悔に対して$O(T1/4)$$と$O(1)$の社会的後悔を得るのに十分であることを示す。
論文 参考訳(メタデータ) (2023-05-24T04:26:21Z) - The Update-Equivalence Framework for Decision-Time Planning [78.44953498421854]
本稿では,サブゲームの解決ではなく,更新等価性に基づく意思決定時計画のための代替フレームワークを提案する。
ミラー降下に基づく完全協調型ゲームに対する有効音声探索アルゴリズムと、磁気ミラー降下に基づく対戦型ゲームに対する探索アルゴリズムを導出する。
論文 参考訳(メタデータ) (2023-04-25T20:28:55Z) - MCTS Based Agents for Multistage Single-Player Card Game [0.0]
この記事では、カードゲームLord of the RingsにおけるMonte Carlo Tree Searchアルゴリズムの使用について紹介する。
主な課題はゲーム力学の複雑さであり、各ラウンドは5つの決定段階と2つのランダムステージから構成される。
様々な意思決定アルゴリズムをテストするために,ゲームシミュレータが実装されている。
論文 参考訳(メタデータ) (2021-09-24T10:56:54Z) - Learning to Play Imperfect-Information Games by Imitating an Oracle
Planner [77.67437357688316]
我々は、同時移動と大規模なステートアクションスペースでマルチプレイヤーの不完全な情報ゲームをプレイする学習を検討します。
我々のアプローチはモデルに基づく計画に基づいている。
我々は,Clash Royale と Pommerman のゲームにおいて,プランナーが効率的なプレイ戦略を発見することができることを示す。
論文 参考訳(メタデータ) (2020-12-22T17:29:57Z) - Using Tabu Search Algorithm for Map Generation in the Terra Mystica
Tabletop Game [60.71662712899962]
Tabu Search (TS)メタヒューリスティックは、アルゴリズムが局所最適点から逃れることによって、単純な局所探索アルゴリズムを改善する。
本稿では,TSの性能について検討し,タブリストのサイズと周辺地域のサイズが手続き的コンテンツ生成に与える影響について考察する。
論文 参考訳(メタデータ) (2020-06-04T09:15:46Z) - Single-Agent Optimization Through Policy Iteration Using Monte-Carlo
Tree Search [8.22379888383833]
モンテカルロ・ツリー・サーチ(MCTS)と深部強化学習の組み合わせは,2プレイヤー完全情報ゲームにおける最先端の手法である。
本稿では,MCTS の変種を利用した探索アルゴリズムについて述べる。1) 潜在的に有界な報酬を持つゲームに対する新たなアクション値正規化機構,2) 効果的な探索並列化を可能にする仮想損失関数の定義,3) 世代ごとのセルフプレイによって訓練されたポリシーネットワークについて述べる。
論文 参考訳(メタデータ) (2020-05-22T18:02:36Z) - From Poincar\'e Recurrence to Convergence in Imperfect Information
Games: Finding Equilibrium via Regularization [49.368421783733815]
モノトーンゲームにおいて,報酬の適応が強い収束保証を与えることを示す。
また、この報酬適応手法を用いて、Nash平衡に正確に収束するアルゴリズムを構築する方法を示す。
論文 参考訳(メタデータ) (2020-02-19T21:36:58Z) - Monte Carlo Game Solver [4.38602607138044]
オンラインでプレイアウトポリシーを学習し、Monte Carlo Tree Searchを利用する。
モンテカルロ木の学習ポリシーと情報は、ゲームソルバの移動を順序付けするために使用される。
論文 参考訳(メタデータ) (2020-01-15T00:20:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。