論文の概要: Spending Thinking Time Wisely: Accelerating MCTS with Virtual Expansions
- arxiv url: http://arxiv.org/abs/2210.12628v1
- Date: Sun, 23 Oct 2022 06:39:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 14:21:15.313126
- Title: Spending Thinking Time Wisely: Accelerating MCTS with Virtual Expansions
- Title(参考訳): Spending Thinking Time Wisely:仮想拡張によるMCTSの高速化
- Authors: Weirui Ye, Pieter Abbeel, Yang Gao
- Abstract要約: 本稿では,モンテカルロ木探索 (MCTS) の変種を提案する。
9倍のGoボードゲームとAtariゲームの性能と計算結果を評価した。
実験の結果,提案手法は,平均検索時間50%以下で,元の検索アルゴリズムに匹敵する性能が得られることがわかった。
- 参考スコア(独自算出の注目度): 89.89612827542972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the most important AI research questions is to trade off computation
versus performance since ``perfect rationality" exists in theory but is
impossible to achieve in practice. Recently, Monte-Carlo tree search (MCTS) has
attracted considerable attention due to the significant performance improvement
in various challenging domains. However, the expensive time cost during search
severely restricts its scope for applications. This paper proposes the Virtual
MCTS (V-MCTS), a variant of MCTS that spends more search time on harder states
and less search time on simpler states adaptively. We give theoretical bounds
of the proposed method and evaluate the performance and computations on $9
\times 9$ Go board games and Atari games. Experiments show that our method can
achieve comparable performances to the original search algorithm while
requiring less than $50\%$ search time on average. We believe that this
approach is a viable alternative for tasks under limited time and resources.
The code is available at \url{https://github.com/YeWR/V-MCTS.git}.
- Abstract(参考訳): 理論上「完全合理性」は存在するが、実際は達成できないため、計算と性能のトレードオフが最も重要なAI研究課題の1つである。
近年,モンテカルロ木探索 (mcts) が様々な課題領域における性能向上により注目を集めている。
しかし、検索中の高価な時間費用はアプリケーションの範囲を厳しく制限する。
本稿では,より複雑な状態に対する探索時間と,より単純な状態に対する探索時間が少ないMCTSの変種であるVirtual MCTS(V-MCTS)を提案する。
提案手法の理論的バウンダリを提示し,9$9のボードゲームとアタリゲームの性能と計算性を評価する。
実験の結果,提案手法は,平均検索時間50\%以下で,元の検索アルゴリズムに匹敵する性能が得られることがわかった。
このアプローチは、限られた時間とリソースのタスクに対して実行可能な代替手段であると考えています。
コードは \url{https://github.com/yewr/v-mcts.git} で入手できる。
関連論文リスト
- LiteSearch: Efficacious Tree Search for LLM [70.29796112457662]
本研究では,動的ノード選択とノードレベルの探索予算を備えた新しいガイド付き木探索アルゴリズムを提案する。
GSM8KおよびTabMWPデータセットを用いて行った実験により,本手法はベースライン法に比べて計算コストが大幅に低いことを示した。
論文 参考訳(メタデータ) (2024-06-29T05:14:04Z) - Elastic Monte Carlo Tree Search with State Abstraction for Strategy Game
Playing [58.720142291102135]
戦略ビデオゲームは、複雑なゲーム要素によって引き起こされる検索スペースでAIエージェントに挑戦する。
状態抽象化は、状態空間の複雑さを低減する一般的なテクニックである。
我々は,状態抽象化を用いてストラテジーゲームをプレイするアルゴリズムであるElastic MCTSを提案する。
論文 参考訳(メタデータ) (2022-05-30T14:18:45Z) - Fast Line Search for Multi-Task Learning [0.0]
マルチタスク学習における行探索アルゴリズムの新しいアイデアを提案する。
この考え方は、ステップサイズを見つけるためにパラメータ空間の代わりに潜在表現空間を使用することである。
本稿では,MNIST,CIFAR-10,Cityscapesタスクの学習速度を一定とする古典的バックトラック法と勾配法を比較した。
論文 参考訳(メタデータ) (2021-10-02T21:02:29Z) - Learning to Stop: Dynamic Simulation Monte-Carlo Tree Search [66.34387649910046]
モンテカルロ木探索(MCTS)は、囲碁やアタリゲームなど多くの領域で最先端の結果を得た。
我々は,現在の検索状況の不確かさを予測し,その結果を用いて検索をやめるべきかどうかを判断することで,この目標を達成することを提案する。
論文 参考訳(メタデータ) (2020-12-14T19:49:25Z) - Resource Allocation in Multi-armed Bandit Exploration: Overcoming
Sublinear Scaling with Adaptive Parallelism [107.48538091418412]
腕の引っ張りに様々な量の資源を割り当てることができる分割可能な資源にアクセス可能な場合,マルチアームの帯状地における探索について検討する。
特に、分散コンピューティングリソースの割り当てに重点を置いており、プル毎により多くのリソースを割り当てることで、結果をより早く得ることができます。
論文 参考訳(メタデータ) (2020-10-31T18:19:29Z) - On Effective Parallelization of Monte Carlo Tree Search [51.15940034629022]
モンテカルロ木探索(MCTS)は、探索木を構築するためにかなりの数のロールアウトを必要とするため、計算コストがかかる。
効果的な並列MCTSアルゴリズムを設計する方法は、体系的に研究されておらず、まだよく分かっていない。
我々は,より効率的な並列MCTSアルゴリズムの設計に,提案する必要条件をどのように適用できるかを実証する。
論文 参考訳(メタデータ) (2020-06-15T21:36:00Z) - Unlucky Explorer: A Complete non-Overlapping Map Exploration [0.949996206597248]
エージェントがすべてのセルを訪問するハミルトニアンパスを見つけなければならない探索問題として,Maze Dashパズルを紹介した。
提案したモンテカルロ木探索(MCTS)アルゴリズムに最適化を適用し,有望な結果を得た。
比較の結果,MCTSをベースとしたアプローチは,テストケースの小型化と中型化を両立させる手法であることがわかった。
論文 参考訳(メタデータ) (2020-05-28T17:19:24Z) - Single-Agent Optimization Through Policy Iteration Using Monte-Carlo
Tree Search [8.22379888383833]
モンテカルロ・ツリー・サーチ(MCTS)と深部強化学習の組み合わせは,2プレイヤー完全情報ゲームにおける最先端の手法である。
本稿では,MCTS の変種を利用した探索アルゴリズムについて述べる。1) 潜在的に有界な報酬を持つゲームに対する新たなアクション値正規化機構,2) 効果的な探索並列化を可能にする仮想損失関数の定義,3) 世代ごとのセルフプレイによって訓練されたポリシーネットワークについて述べる。
論文 参考訳(メタデータ) (2020-05-22T18:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。