論文の概要: Batch Monte Carlo Tree Search
- arxiv url: http://arxiv.org/abs/2104.04278v1
- Date: Fri, 9 Apr 2021 09:54:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 18:10:55.619943
- Title: Batch Monte Carlo Tree Search
- Title(参考訳): Batch Monte Carlo Tree Search
- Authors: Tristan Cazenave
- Abstract要約: この性質に基づいて,バッチ推論を用いたモンテカルロ木探索アルゴリズムを提案する。
転置テーブルは推論の結果を含むが、検索ツリーはモンテカルロツリー検索の統計情報を含む。
また、検索を改善する複数のアルゴリズムを分析することも提案している:$mu$ fpu、仮想平均、反復、第2の移動は続く。
- 参考スコア(独自算出の注目度): 9.114710429587479
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Making inferences with a deep neural network on a batch of states is much
faster with a GPU than making inferences on one state after another. We build
on this property to propose Monte Carlo Tree Search algorithms using batched
inferences. Instead of using either a search tree or a transposition table we
propose to use both in the same algorithm. The transposition table contains the
results of the inferences while the search tree contains the statistics of
Monte Carlo Tree Search. We also propose to analyze multiple heuristics that
improve the search: the $\mu$ FPU, the Virtual Mean, the Last Iteration and the
Second Move heuristics. They are evaluated for the game of Go using a MobileNet
neural network.
- Abstract(参考訳): 一連の状態におけるディープニューラルネットワークによる推論は、別の状態に対する推論よりもGPUの方がはるかに高速である。
この性質に基づいて,バッチ推論を用いたモンテカルロ木探索アルゴリズムを提案する。
探索木や転置テーブルを使う代わりに、同じアルゴリズムで両方を使うように提案する。
変換テーブルは推論の結果を含み、探索木はモンテカルロ木探索の統計を含む。
また、検索を改善する複数のヒューリスティック($\mu$ FPU, the Virtual Mean, the Last Iteration, the Second Move Heuristics)を分析することを提案する。
それらはMobileNetニューラルネットワークを使用してGoのゲームで評価される。
関連論文リスト
- RethinkMCTS: Refining Erroneous Thoughts in Monte Carlo Tree Search for Code Generation [65.5353313491402]
本稿では,モンテカルロ木探索(MCTS)アルゴリズムを用いて,コードを生成する前に思考レベルの探索を行うRethinkMCTSを紹介する。
我々は,検索中の誤った思考を洗練させるために,微動コード実行フィードバックからの言語フィードバックを構築した。
RethinkMCTSは従来の検索ベースおよびフィードバックベースのコード生成ベースラインよりも優れていることを実証する。
論文 参考訳(メタデータ) (2024-09-15T02:07:28Z) - LiteSearch: Efficacious Tree Search for LLM [70.29796112457662]
本研究では,動的ノード選択とノードレベルの探索予算を備えた新しいガイド付き木探索アルゴリズムを提案する。
GSM8KおよびTabMWPデータセットを用いて行った実験により,本手法はベースライン法に比べて計算コストが大幅に低いことを示した。
論文 参考訳(メタデータ) (2024-06-29T05:14:04Z) - Monte Carlo Search Algorithms Discovering Monte Carlo Tree Search Exploration Terms [4.561007128508218]
最適化されたモンテカルロ木探索アルゴリズムはPUCTとSHUSSである。
32評価の小さな探索予算に対して、発見されたルート探索条件は両方のアルゴリズムを競合させる。
論文 参考訳(メタデータ) (2024-04-14T17:06:20Z) - Nearly Optimal Steiner Trees using Graph Neural Network Assisted Monte
Carlo Tree Search [9.061356032792952]
グラフニューラルネットワークとモンテカルロ木探索を組み合わせたステイナツリーの計算手法について述べる。
まず、部分解として入力されるグラフニューラルネットワークをトレーニングし、出力として追加される新しいノードを提案する。
このニューラルネットワークはモンテカルロ探索でスタイナー木を計算するのに使用される。
論文 参考訳(メタデータ) (2023-04-30T17:15:38Z) - Efficient Non-Parametric Optimizer Search for Diverse Tasks [93.64739408827604]
興味のあるタスクを直接検索できる,スケーラブルで汎用的なフレームワークを初めて提示する。
基礎となる数学表現の自然木構造に着想を得て、空間を超木に再配置する。
我々は,モンテカルロ法を木探索に適用し,レジェクションサンプリングと等価形状検出を備える。
論文 参考訳(メタデータ) (2022-09-27T17:51:31Z) - Prioritized Architecture Sampling with Monto-Carlo Tree Search [54.72096546595955]
ワンショットニューラルアーキテクチャサーチ(NAS)法は,検索空間全体を1つのネットワークとして考えることにより,検索コストを大幅に削減する。
本稿では,モンテカルロ木(MCT)をモデルとした探索空間を用いたモンテカルロ木探索(MCTS)に基づくサンプリング戦略について紹介する。
公平な比較のために、CIFAR-10で評価されたマクロ検索空間、すなわちNAS-Bench-MacroのオープンソースNASベンチマークを構築する。
論文 参考訳(メタデータ) (2021-03-22T15:09:29Z) - Monte-Carlo Graph Search for AlphaZero [15.567057178736402]
探索木を有向非巡回グラフに一般化する,新しい改良されたalphazero探索アルゴリズムを提案する。
評価では、チェスとクレイジーハウスでCrazyAraエンジンを使用して、これらの変更がAlphaZeroに大きな改善をもたらすことを示す。
論文 参考訳(メタデータ) (2020-12-20T22:51:38Z) - Learning to Stop: Dynamic Simulation Monte-Carlo Tree Search [66.34387649910046]
モンテカルロ木探索(MCTS)は、囲碁やアタリゲームなど多くの領域で最先端の結果を得た。
我々は,現在の検索状況の不確かさを予測し,その結果を用いて検索をやめるべきかどうかを判断することで,この目標を達成することを提案する。
論文 参考訳(メタデータ) (2020-12-14T19:49:25Z) - On Effective Parallelization of Monte Carlo Tree Search [51.15940034629022]
モンテカルロ木探索(MCTS)は、探索木を構築するためにかなりの数のロールアウトを必要とするため、計算コストがかかる。
効果的な並列MCTSアルゴリズムを設計する方法は、体系的に研究されておらず、まだよく分かっていない。
我々は,より効率的な並列MCTSアルゴリズムの設計に,提案する必要条件をどのように適用できるかを実証する。
論文 参考訳(メタデータ) (2020-06-15T21:36:00Z) - Single-Agent Optimization Through Policy Iteration Using Monte-Carlo
Tree Search [8.22379888383833]
モンテカルロ・ツリー・サーチ(MCTS)と深部強化学習の組み合わせは,2プレイヤー完全情報ゲームにおける最先端の手法である。
本稿では,MCTS の変種を利用した探索アルゴリズムについて述べる。1) 潜在的に有界な報酬を持つゲームに対する新たなアクション値正規化機構,2) 効果的な探索並列化を可能にする仮想損失関数の定義,3) 世代ごとのセルフプレイによって訓練されたポリシーネットワークについて述べる。
論文 参考訳(メタデータ) (2020-05-22T18:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。