論文の概要: Monte Carlo Game Solver
- arxiv url: http://arxiv.org/abs/2001.05087v1
- Date: Wed, 15 Jan 2020 00:20:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 06:33:05.293028
- Title: Monte Carlo Game Solver
- Title(参考訳): モンテカルロゲームソルバー
- Authors: Tristan Cazenave
- Abstract要約: オンラインでプレイアウトポリシーを学習し、Monte Carlo Tree Searchを利用する。
モンテカルロ木の学習ポリシーと情報は、ゲームソルバの移動を順序付けするために使用される。
- 参考スコア(独自算出の注目度): 4.38602607138044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a general algorithm to order moves so as to speedup exact game
solvers. It uses online learning of playout policies and Monte Carlo Tree
Search. The learned policy and the information in the Monte Carlo tree are used
to order moves in game solvers. They improve greatly the solving time for
multiple games.
- Abstract(参考訳): 我々は,正確な解法を高速化するために,動作を順序付けする一般的なアルゴリズムを提案する。
プレーアウトポリシーのオンライン学習とモンテカルロ木探索を利用する。
モンテカルロ木の学習ポリシーと情報は、ゲームソルバの移動を順序付けするために使用される。
複数のゲームの問題解決時間を大幅に改善する。
関連論文リスト
- Deep Reinforcement Learning for 5*5 Multiplayer Go [6.222520876209623]
本稿では,検索と深層強化学習(DRL)を用いた最新のアルゴリズムの利用と解析を提案する。
我々は,2人以上のプレイヤーがいても,検索とDRLによりプレイレベルを向上できたことを示す。
論文 参考訳(メタデータ) (2024-05-23T07:44:24Z) - Monte Carlo Search Algorithms Discovering Monte Carlo Tree Search Exploration Terms [4.561007128508218]
最適化されたモンテカルロ木探索アルゴリズムはPUCTとSHUSSである。
32評価の小さな探索予算に対して、発見されたルート探索条件は両方のアルゴリズムを競合させる。
論文 参考訳(メタデータ) (2024-04-14T17:06:20Z) - Monte-Carlo Tree Search for Multi-Agent Pathfinding: Preliminary Results [60.4817465598352]
マルチエージェントパスフィンディングに適したモンテカルロ木探索(MCTS)のオリジナル版を紹介する。
具体的には,エージェントの目標達成行動を支援するために,個別の経路を用いる。
また,木探索手順の分岐係数を低減するために,専用の分解手法を用いる。
論文 参考訳(メタデータ) (2023-07-25T12:33:53Z) - Solving Royal Game of Ur Using Reinforcement Learning [0.0]
我々はモンテカルロ、クラーニング、サーサといった異なる手法を用いてエージェントを訓練し、戦略的なUrゲームを行うための最適なポリシーを学ぶ。
アルゴリズムによる限られたリソースで訓練された場合、全体的なパフォーマンスは向上するが、期待されるSarsaは、学習の高速化に関して有望な結果を示す。
論文 参考訳(メタデータ) (2022-08-23T01:26:37Z) - An AlphaZero-Inspired Approach to Solving Search Problems [63.24965775030674]
探索問題を解くためにAlphaZeroで使用される手法と手法を適応する。
本稿では,簡単な解法と自己還元という観点から表現できる可能性について述べる。
また,探索問題に適応したモンテカルロ木探索法についても述べる。
論文 参考訳(メタデータ) (2022-07-02T23:39:45Z) - Learning in Mean Field Games: A Survey [44.93300994923148]
平均フィールドゲームズ(MFG)は、プレイヤーの数を無限に増やすために平均フィールド近似に依存する。
MFGにおけるリベリアと社会的最適化のための強化学習法に関する最近の研究
本稿では,MFGを正確に解くための古典的反復法に関する一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:49:37Z) - MCTS Based Agents for Multistage Single-Player Card Game [0.0]
この記事では、カードゲームLord of the RingsにおけるMonte Carlo Tree Searchアルゴリズムの使用について紹介する。
主な課題はゲーム力学の複雑さであり、各ラウンドは5つの決定段階と2つのランダムステージから構成される。
様々な意思決定アルゴリズムをテストするために,ゲームシミュレータが実装されている。
論文 参考訳(メタデータ) (2021-09-24T10:56:54Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Monte-Carlo Tree Search as Regularized Policy Optimization [47.541849128047865]
我々は,AlphaZeroの探索アルゴリズムが,特定の正規化ポリシ最適化問題の解の近似であることを示す。
我々は、このポリシー最適化問題の正確な解法を用いて、AlphaZeroの変種を提案し、複数の領域において元のアルゴリズムを確実に上回ることを示す。
論文 参考訳(メタデータ) (2020-07-24T13:01:34Z) - Competing in a Complex Hidden Role Game with Information Set Monte Carlo
Tree Search [0.0]
Information Set Monte Carlo Tree Search (ISMCTS) のアルゴリズムは、不完全な情報ゲームにおいてモンテカルロ法を用いて以前のアルゴリズムより優れている。
本論文は,従来の隠蔽ロール機構とカードデッキのランダム性を組み合わせたソーシャル推論ボードゲームであるシークレットヒトラーに適用する。
論文 参考訳(メタデータ) (2020-05-14T17:21:10Z) - From Poincar\'e Recurrence to Convergence in Imperfect Information
Games: Finding Equilibrium via Regularization [49.368421783733815]
モノトーンゲームにおいて,報酬の適応が強い収束保証を与えることを示す。
また、この報酬適応手法を用いて、Nash平衡に正確に収束するアルゴリズムを構築する方法を示す。
論文 参考訳(メタデータ) (2020-02-19T21:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。