論文の概要: Policy-Guided Search on Tree-of-Thoughts for Efficient Problem Solving with Bounded Language Model Queries
- arxiv url: http://arxiv.org/abs/2601.03606v1
- Date: Wed, 07 Jan 2026 05:35:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.135721
- Title: Policy-Guided Search on Tree-of-Thoughts for Efficient Problem Solving with Bounded Language Model Queries
- Title(参考訳): 境界言語モデルクエリを用いた効率的な問題解決のための政策指導型トリー・オブ・ワウトの探索
- Authors: Sumedh Pendurkar, Guni Sharon,
- Abstract要約: 言語モデル(LM)による思考に割り当てられる確率は,ToTフレームワーク内での探索のガイドとして機能することを示す。
We adapt a search algorithm, Levin Tree Search (LTS) to the ToT framework。
これらの知見は,ToTに対するLTSの有効性,特に費用対効果と時間対効果の課題解決に有効であることを示す。
- 参考スコア(独自算出の注目度): 5.268207922548829
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies explored integrating state-space search algorithms with Language Models (LM) to perform look-ahead on the token generation process, the ''Tree-of-Thoughts'' (ToT), generated by LMs, thereby improving performance on problem-solving tasks. However, the affiliated search algorithms often overlook the significant computational costs associated with LM inference, particularly in scenarios with constrained computational budgets. Consequently, we address the problem of improving LM performance on problem-solving tasks under limited computational budgets. We demonstrate how the probabilities assigned to thoughts by LMs can serve as a heuristic to guide search within the ToT framework, thereby reducing the number of thought evaluations. Building on this insight, we adapt a heuristic search algorithm, Levin Tree Search (LTS), to the ToT framework, which leverages LMs as policies to guide the tree exploration efficiently. We extend the theoretical results of LTS by showing that, for ToT (a pruned tree), LTS guarantees a bound on the number of states expanded, and consequently, on the number of thoughts generated. Additionally, we analyze the sensitivity of this bound to the temperature values commonly used in the final softmax layer of the LM. Empirical evaluation under a fixed LM query budget demonstrates that LTS consistently achieves comparable or higher accuracy than baseline search algorithms within the ToT framework, across three domains (Blocksworld, PrOntoQA, Array Sorting) and four distinct LMs. These findings highlight the efficacy of LTS on ToT, particularly in enabling cost-effective and time-efficient problem-solving, making it well-suited for latency-critical and resource-constrained applications.
- Abstract(参考訳): 近年,トークン生成プロセスである'Tree-of-Thoughts' (ToT) において,状態空間探索アルゴリズムを言語モデル (LM) と統合することにより,問題解決タスクの性能を向上させる方法が検討されている。
しかし、関連する探索アルゴリズムは、特に計算予算の制約のあるシナリオにおいて、LM推論に関連する重要な計算コストを無視することが多い。
その結果,計算予算が限られている問題解決タスクにおいて,LM性能が向上する問題に対処する。
ToT フレームワーク内での探索をガイドするヒューリスティックな手法として,LM による思考に割り当てられた確率がどのように機能するかを実証し,思考評価の回数を削減できることを示す。
この知見に基づいて,我々は,木探索を効率的に導くためのポリシーとしてLMを利用するToTフレームワークに対して,ヒューリスティックな探索アルゴリズムであるLevin Tree Search(LTS)を適用した。
ToT(刈り取られた木)の場合、LTSは拡張された状態の数に束縛されることを保証し、その結果、生成された思考数に基づいてLTSの理論的結果を拡張する。
さらに, LMの最終ソフトマックス層でよく用いられる温度値に拘束された値の感度を解析した。
固定LMクエリ予算に基づく実証的な評価では、LTSは3つのドメイン(Blocksworld、PrOntoQA、Array Sorting)と4つの異なるLMに対して、ToTフレームワークのベースライン検索アルゴリズムよりも一貫して同等または高い精度を達成している。
これらの結果は、特にコスト効率が高く、時間効率のよい問題解決を可能にするために、LTS on ToTの有効性を強調しており、レイテンシクリティカルでリソース制約の厳しいアプリケーションに適している。
関連論文リスト
- Chain-in-Tree: Back to Sequential Reasoning in LLM Tree Search [4.12237459236889]
Chain-in-Tree (CiT)は、すべてのステップで拡張するのではなく、検索中にいつ分岐するかを決定するフレームワークである。
GSM8KとMath500のトークン生成、モデル呼び出し、ランタイムの75~85%の削減を実現している。
論文 参考訳(メタデータ) (2025-09-30T06:18:44Z) - Rethinking the Unsolvable: When In-Context Search Meets Test-Time Scaling [1.219841051166348]
本稿では,テキスト内検索とテスト時間スケーリングの併用の可能性について検討する。
内部スケーリングを付加したLLMに高度なコンテキスト内探索プロンプトを付加することにより、変換性能のブレークスルーを実現することができる。
論文 参考訳(メタデータ) (2025-05-28T12:28:18Z) - Dynamic Parallel Tree Search for Efficient LLM Reasoning [102.16694475391665]
Tree of Thoughts (ToT) は大規模言語モデル(LLM)推論を強化し、分散木としての問題解決を構造化する。
推論における推論経路を動的に最適化することを目的とした,新しい並列化フレームワークであるDynamic Parallel Tree Search (DPTS)を提案する。
Qwen-2.5とLlama-3のMath500とGSM8Kデータセットによる実験では、DPTSは平均で2-4倍効率が向上した。
論文 参考訳(メタデータ) (2025-02-22T14:13:37Z) - PEA: Enhancing LLM Performance on Computational-Reasoning Tasks [21.13926189404758]
本研究では、計算推論問題と呼ばれる重要な推論タスクのクラスを記述し、解決するための形式的なアプローチを紹介する。
このフレームワークはこれらの問題を述語と列挙の構成要素に分解し、LLMを使って特定の述語、列挙、集約ルールに基づいてプログラムを合成する。
実験的な評価により、PEAはベンチマーク計算問題における基礎となるモデルの性能を大幅に向上し、平均精度が約50%向上し、効率が向上することがわかった。
論文 参考訳(メタデータ) (2025-02-16T00:27:05Z) - Policy Guided Tree Search for Enhanced LLM Reasoning [3.090041654375235]
Policy-Guided Tree Search (PGTS)は、強化学習と構造化木探索を組み合わせて推論経路を効率的にナビゲートするフレームワークである。
私たちの重要なイノベーションは、手作業や徹底的な検索の必要性をなくし、拡大、分岐、追跡、探索の終了を動的に決定する、学習されたポリシーです。
論文 参考訳(メタデータ) (2025-02-04T22:08:20Z) - Autoformulation of Mathematical Optimization Models Using LLMs [50.030647274271516]
本稿では,自然言語問題記述から解法対応最適化モデルを自動生成する,$textitautoformulation$の問題にアプローチする。
オートフォーミュレーションの3つの主要な課題を識別する: $textit(1)$ 巨大で問題に依存した仮説空間、および$textit(2)$ 不確実性の下でこの空間を効率的かつ多様に探索する。
我々は,$textitLarge Language Models$と$textitMonte-Carlo Tree Search$を併用した新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-03T20:41:38Z) - LiteSearch: Efficacious Tree Search for LLM [70.29796112457662]
本研究では,動的ノード選択とノードレベルの探索予算を備えた新しいガイド付き木探索アルゴリズムを提案する。
GSM8KおよびTabMWPデータセットを用いて行った実験により,本手法はベースライン法に比べて計算コストが大幅に低いことを示した。
論文 参考訳(メタデータ) (2024-06-29T05:14:04Z) - Autonomous Tree-search Ability of Large Language Models [58.68735916408101]
大規模言語モデルは、高度なプロンプト技術で顕著な推論能力に優れています。
近年の研究では、LLMがより困難な推論タスクを解くために受動的木探索を行えるように、検索ロジックを定義するために外部プログラムを活用することが提案されている。
我々は,LLMの自律木探索能力という新しい概念を提案し,正しい解を求める探索軌跡を含む応答を自動生成する。
論文 参考訳(メタデータ) (2023-10-14T14:14:38Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。