論文の概要: Exploring Explainable Multi-player MCTS-minimax Hybrids in Board Game Using Process Mining
- arxiv url: http://arxiv.org/abs/2503.23326v1
- Date: Sun, 30 Mar 2025 05:48:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 19:35:57.059708
- Title: Exploring Explainable Multi-player MCTS-minimax Hybrids in Board Game Using Process Mining
- Title(参考訳): プロセスマイニングによるボードゲームにおける説明可能なマルチプレイヤーMCTS-minimaxハイブリッドの探索
- Authors: Yiyu Qian, Tim Miller, Zheng Qian, Liyuan Zhao,
- Abstract要約: 本稿では,モンテカルロ木探索(MCTS)の意思決定と行動に関する潜在的説明について検討する。
MCTSの弱点は、非常に選択的な木を構築し、結果として決定的な動きを見逃し、戦術的な罠に陥ることである。
我々は,マルチプレイヤーMCTSのロールアウトフェーズに浅いミニマックス探索を統合し,プロセスマイニング技術を用いて3v3チェッカーにおけるエージェントの戦略を説明する。
- 参考スコア(独自算出の注目度): 3.5042452314350716
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Monte-Carlo Tree Search (MCTS) is a family of sampling-based search algorithms widely used for online planning in sequential decision-making domains and at the heart of many recent advances in artificial intelligence. Understanding the behavior of MCTS agents is difficult for developers and users due to the frequently large and complex search trees that result from the simulation of many possible futures, their evaluations, and their relationships. This paper presents our ongoing investigation into potential explanations for the decision-making and behavior of MCTS. A weakness of MCTS is that it constructs a highly selective tree and, as a result, can miss crucial moves and fall into tactical traps. Full-width minimax search constitutes the solution. We integrate shallow minimax search into the rollout phase of multi-player MCTS and use process mining technique to explain agents' strategies in 3v3 checkers.
- Abstract(参考訳): Monte-Carlo Tree Search (MCTS) は、シーケンシャルな意思決定領域におけるオンライン計画に広く使われているサンプリングベースの検索アルゴリズムのファミリーである。
MCTSエージェントの動作を理解することは,多くの可能性のシミュレーションや評価,それらの関係性から生じる,大規模で複雑な探索木により,開発者やユーザにとって困難である。
本稿では,MCTSの意思決定と行動に関する潜在的な説明について検討する。
MCTSの弱点は、非常に選択的な木を構築し、結果として決定的な動きを見逃し、戦術的な罠に陥ることである。
完全幅のミニマックスサーチが解を構成する。
我々は,マルチプレイヤーMCTSのロールアウトフェーズに浅いミニマックス探索を統合し,プロセスマイニング技術を用いて3v3チェッカーにおけるエージェントの戦略を説明する。
関連論文リスト
- Multi-LLM Collaborative Search for Complex Problem Solving [54.194370845153784]
そこで我々は,Mixture-of-Search-Agents(MoSA)パラダイムを提案する。
MoSAは、独立した探索とLCM間の反復的精錬を組み合わせることで、様々な推論経路を統合する。
モンテカルロ木探索(MCTS)をバックボーンとして使用することにより、複数のエージェントが推論ステップを提案して集約することが可能となり、精度が向上する。
論文 参考訳(メタデータ) (2025-02-26T06:31:04Z) - Holistically Guided Monte Carlo Tree Search for Intricate Information Seeking [118.3983437282541]
我々は,モンテカルロ木探索 (HG-MCTS) を用いた新たな情報探索パラダイムを採用したLLMベースの検索アシスタントを提案する。
本稿では,知識メモリを用いたプログレッシブ情報収集プロセスとしてタスクを再構築し,適応型チェックリストとMCTSのマルチパースペクティブ報酬モデルとを結合する。
マルチパースペクティブ報酬モデリングは、探索と検索の両方の報奨と、完了と残るサブゴールを追跡する進捗フィードバックを提供する。
論文 参考訳(メタデータ) (2025-02-07T08:36:39Z) - Provably Efficient Long-Horizon Exploration in Monte Carlo Tree Search through State Occupancy Regularization [18.25487451605638]
状態占有度を正則化した政策最適化に基づく木探索アルゴリズムを導出し,それをボリュームMCTSと呼ぶ。
本研究では,この状態占有率の正規化目標に対する近似解として,カウントベース探索とサンプリングベース動作計画が導出可能であることを示す。
我々は,いくつかのロボットナビゲーション問題に対して本手法を試行し,Volume-MCTSがAlphaZeroより優れており,長期探査特性が著しく向上していることを見出した。
論文 参考訳(メタデータ) (2024-07-07T22:58:52Z) - Efficient Adaptation in Mixed-Motive Environments via Hierarchical Opponent Modeling and Planning [51.52387511006586]
本稿では,HOP(Hierarchical Opponent Modeling and Planning)を提案する。
HOPは階層的に2つのモジュールから構成される: 相手の目標を推論し、対応する目標条件のポリシーを学ぶ、反対モデリングモジュール。
HOPは、さまざまな未確認エージェントと相互作用する際、優れた少数ショット適応能力を示し、セルフプレイのシナリオで優れている。
論文 参考訳(メタデータ) (2024-06-12T08:48:06Z) - Amplifying Exploration in Monte-Carlo Tree Search by Focusing on the
Unknown [19.664506834858244]
モンテカルロ木探索(MCTS)は、探索木の有望なセグメントに焦点を合わせるために、戦略的に計算資源を割り当てる。
提案手法はAmEx-MCTSと呼ばれ,新しいMCTSの定式化を導入することでこの問題を解決する。
実験による評価は,AMEx-MCTSの優れた性能を示し,従来のMCTSと関連するアプローチを実質的なマージンで上回っている。
論文 参考訳(メタデータ) (2024-02-13T15:05:54Z) - LightZero: A Unified Benchmark for Monte Carlo Tree Search in General
Sequential Decision Scenarios [32.83545787965431]
学習モデルを用いた木探索計画能力に基づくエージェントの構築は、GoやAtariといった古典的な意思決定問題において大きな成功を収めている。
モンテカルロ木探索(MCTS)ベースのアルゴリズムを様々な現実世界のアプリケーションに拡張することは困難または不可能であるとみなされている。
本稿では,MCTS/MuZeroを一般的な逐次決定シナリオに展開するための最初の統一ベンチマークであるLightZeroを紹介する。
論文 参考訳(メタデータ) (2023-10-12T14:18:09Z) - Monte-Carlo Tree Search for Multi-Agent Pathfinding: Preliminary Results [60.4817465598352]
マルチエージェントパスフィンディングに適したモンテカルロ木探索(MCTS)のオリジナル版を紹介する。
具体的には,エージェントの目標達成行動を支援するために,個別の経路を用いる。
また,木探索手順の分岐係数を低減するために,専用の分解手法を用いる。
論文 参考訳(メタデータ) (2023-07-25T12:33:53Z) - Continuous Monte Carlo Graph Search [61.11769232283621]
連続モンテカルログラフサーチ(Continuous Monte Carlo Graph Search, CMCGS)は、モンテカルログラフサーチ(MCTS)のオンラインプランニングへの拡張である。
CMCGSは、計画中、複数の州で同じ行動方針を共有することで高いパフォーマンスが得られるという洞察を生かしている。
並列化によってスケールアップすることができ、学習力学モデルによる連続制御においてクロスエントロピー法(CEM)よりも優れている。
論文 参考訳(メタデータ) (2022-10-04T07:34:06Z) - Cooperative Exploration for Multi-Agent Deep Reinforcement Learning [127.4746863307944]
深層強化学習のための協調型マルチエージェント探索(CMAE)を提案する。
ゴールは正規化エントロピーに基づく手法により、複数の射影状態空間から選択される。
CMAEが様々なタスクのベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2021-07-23T20:06:32Z) - Monte Carlo Tree Search: A Review of Recent Modifications and
Applications [0.17205106391379024]
モンテカルロツリー検索(MCTS)は、ゲームプレイボットを設計したり、連続的な決定問題を解決するための強力なアプローチです。
この方法は、探索と搾取のバランスをとるインテリジェントな木探索に依存している。
しかし、この方法はより複雑なゲームでは最先端の技術となっている。
論文 参考訳(メタデータ) (2021-03-08T17:44:15Z) - Unlucky Explorer: A Complete non-Overlapping Map Exploration [0.949996206597248]
エージェントがすべてのセルを訪問するハミルトニアンパスを見つけなければならない探索問題として,Maze Dashパズルを紹介した。
提案したモンテカルロ木探索(MCTS)アルゴリズムに最適化を適用し,有望な結果を得た。
比較の結果,MCTSをベースとしたアプローチは,テストケースの小型化と中型化を両立させる手法であることがわかった。
論文 参考訳(メタデータ) (2020-05-28T17:19:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。