論文の概要: Aligning Tree-Search Policies with Fixed Token Budgets in Test-Time Scaling of LLMs
- arxiv url: http://arxiv.org/abs/2602.09574v1
- Date: Tue, 10 Feb 2026 09:23:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.469898
- Title: Aligning Tree-Search Policies with Fixed Token Budgets in Test-Time Scaling of LLMs
- Title(参考訳): LLMの試験時間スケーリングにおける固定トークン予算付きツリーサーチポリシーの調整
- Authors: Sora Miyamoto, Daisuke Oba, Naoaki Okazaki,
- Abstract要約: 既存の木探索政策は予算に依存せず、予算を終了条件として扱い、最終段階のオーバーブランチや早期終了につながる可能性がある。
本稿では,Budget-Guided MCTS (BG-MCTS)を提案する。
BG-MCTS は、MATH500 と AIME24/25 の様々な予算において、オープンウェイト LLM で予算に依存しない木探索ベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 16.21023293204606
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tree-search decoding is an effective form of test-time scaling for large language models (LLMs), but real-world deployment imposes a fixed per-query token budget that varies across settings. Existing tree-search policies are largely budget-agnostic, treating the budget as a termination condition, which can lead to late-stage over-branching or premature termination. We propose {Budget-Guided MCTS} (BG-MCTS), a tree-search decoding algorithm that aligns its search policy with the remaining token budget: it starts with broad exploration, then prioritizes refinement and answer completion as the budget depletes while reducing late-stage branching from shallow nodes. BG-MCTS consistently outperforms budget-agnostic tree-search baselines across different budgets on MATH500 and AIME24/25 with open-weight LLMs.
- Abstract(参考訳): Tree-searchデコーディングは、大規模な言語モデル(LLM)のテスト時間スケーリングの有効な形式だが、実際のデプロイメントでは、設定によって異なる、固定されたクエリ単位のトークン予算が課される。
既存の木探索政策は予算に依存せず、予算を終了条件として扱い、最終段階のオーバーブランチや早期終了につながる可能性がある。
BG-MCTS (Budget-Guided MCTS) という木探索復号アルゴリズムを提案する。このアルゴリズムは検索ポリシーと残りのトークン予算を整合させるもので、探索から始まり、浅いノードからの後期分岐を減らしながら、予算の削減と解答の優先順位付けを行う。
BG-MCTS は、MATH500 と AIME24/25 の様々な予算において、オープンウェイト LLM で予算に依存しない木探索ベースラインを一貫して上回っている。
関連論文リスト
- Policy-Guided Search on Tree-of-Thoughts for Efficient Problem Solving with Bounded Language Model Queries [5.268207922548829]
言語モデル(LM)による思考に割り当てられる確率は,ToTフレームワーク内での探索のガイドとして機能することを示す。
We adapt a search algorithm, Levin Tree Search (LTS) to the ToT framework。
これらの知見は,ToTに対するLTSの有効性,特に費用対効果と時間対効果の課題解決に有効であることを示す。
論文 参考訳(メタデータ) (2026-01-07T05:35:16Z) - Chain-in-Tree: Back to Sequential Reasoning in LLM Tree Search [4.12237459236889]
Chain-in-Tree (CiT)は、すべてのステップで拡張するのではなく、検索中にいつ分岐するかを決定するフレームワークである。
GSM8KとMath500のトークン生成、モデル呼び出し、ランタイムの75~85%の削減を実現している。
論文 参考訳(メタデータ) (2025-09-30T06:18:44Z) - Don't Get Lost in the Trees: Streamlining LLM Reasoning by Overcoming Tree Search Exploration Pitfalls [83.89771461061903]
検証者による木探索アルゴリズムの最近の進歩は、大規模言語モデル(LLM)の推論能力を大幅に向上させた。
検証者による木探索アルゴリズムの最近の進歩は、大規模言語モデル(LLM)の推論能力を大幅に向上させた。
意味論的に等価なコンテンツを持つ冗長な状態による$textitover-Exploration$と、検証器のスコアリングにおける高いばらつきに起因する$textitunder-Exploration$である。
各種木探索アルゴリズムに適合するフレキシブルなプラグアンドプレイシステムであるFETCHを提案する。
論文 参考訳(メタデータ) (2025-02-16T16:12:01Z) - LiteSearch: Efficacious Tree Search for LLM [70.29796112457662]
本研究では,動的ノード選択とノードレベルの探索予算を備えた新しいガイド付き木探索アルゴリズムを提案する。
GSM8KおよびTabMWPデータセットを用いて行った実験により,本手法はベースライン法に比べて計算コストが大幅に低いことを示した。
論文 参考訳(メタデータ) (2024-06-29T05:14:04Z) - Indexed Minimum Empirical Divergence-Based Algorithms for Linear Bandits [55.938644481736446]
Indexed Minimum Empirical Divergence (IMED)は、マルチアームバンディット問題に対する非常に効果的なアプローチである。
UCBベースのアルゴリズムとトンプソンサンプリングを実証的に上回ることが観察されている。
我々は、LinIMEDアルゴリズムのファミリーと呼ぶIMEDアルゴリズムの新しい線形バージョンを提案する。
論文 参考訳(メタデータ) (2024-05-24T04:11:58Z) - Autonomous Tree-search Ability of Large Language Models [58.68735916408101]
大規模言語モデルは、高度なプロンプト技術で顕著な推論能力に優れています。
近年の研究では、LLMがより困難な推論タスクを解くために受動的木探索を行えるように、検索ロジックを定義するために外部プログラムを活用することが提案されている。
我々は,LLMの自律木探索能力という新しい概念を提案し,正しい解を求める探索軌跡を含む応答を自動生成する。
論文 参考訳(メタデータ) (2023-10-14T14:14:38Z) - On $\ell_p$-norm Robustness of Ensemble Stumps and Trees [83.81523991945018]
我々は,アンサンブルスタンプの音響検証のための効率的なプログラムベースアルゴリズムを開発した。
我々は,アンサンブル・スタンプや木を訓練するための最初の認証された防御法を,$ell_p$ノルム摂動に関して実証した。
論文 参考訳(メタデータ) (2020-08-20T03:42:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。