論文の概要: SCULPT: Constraint-Guided Pruned MCTS that Carves Efficient Paths for Mathematical Reasoning
- arxiv url: http://arxiv.org/abs/2601.12842v1
- Date: Mon, 19 Jan 2026 08:55:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.819209
- Title: SCULPT: Constraint-Guided Pruned MCTS that Carves Efficient Paths for Mathematical Reasoning
- Title(参考訳): SCULPT:Mathematical Reasoningのための効率的な経路を駆動する拘束誘導型プルーニングMCTS
- Authors: Qitong Fang, Haotian Li, Xu Wang,
- Abstract要約: 本稿では,モンテカルロ木探索(MCTS)における制約誘導手法SCULPTを紹介する。
SCULPTは、シンボルチェック(次元整合性、型整合性、大きさの正しさ、深さ制御、多様性)と構造パターンガイダンスを組み合わせることで、スコアとプルーンのアクションを出力する。
全体として、ドメイン認識の制約は効率と安定性を維持しながら精度を向上させることができる。
- 参考スコア(独自算出の注目度): 11.991985041067638
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Automated agent workflows can enhance the problem-solving ability of large language models (LLMs), but common search strategies rely on stochastic exploration and often traverse implausible branches. This occurs because current pipelines sample candidate steps from generic prompts or learned policies with weak domain priors, yielding near-random walks over operators, units, and formats. To promote ordered exploration, this paper introduces SCULPT, a constraint-guided approach for Monte Carlo Tree Search (MCTS) that integrates domain-aware scoring into selection, expansion, simulation, and backpropagation. SCULPT scores and prunes actions using a combination of symbolic checks (dimensional consistency, type compatibility, magnitude sanity, depth control, and diversity) and structural pattern guidance, thereby steering the search toward plausible reasoning paths. Under matched LLM configurations, SCULPT yields stable improvements on multiple datasets; additional results with GPT-5.2 assess executor transferability and performance on frontier reasoning models. Overall, domain-aware constraints can improve accuracy while maintaining efficiency and reasoning stability.
- Abstract(参考訳): エージェントワークフローの自動化は、大規模言語モデル(LLM)の問題解決能力を高めることができるが、一般的な探索戦略は確率探索に依存し、しばしば不明瞭な枝を横切る。
これは、現在のパイプラインがジェネリックプロンプトから候補ステップをサンプリングしたり、弱いドメインプリエントを持つ学習ポリシーをサンプリングし、演算子、ユニット、フォーマットをほぼランダムに歩くためである。
そこで本研究では,モンテカルロ木探索(MCTS)における制約誘導手法であるSCULPTを導入する。
SCULPTは、記号チェック(次元整合性、型整合性、大きさの正しさ、深さの制御、多様性)と構造パターンガイダンスを組み合わせることで、妥当な推論経路への探索を操る。
一致したLLM構成の下では、SCULPTは複数のデータセットで安定した改善が得られ、さらにGPT-5.2ではエグゼクタ転送可能性とフロンティア推論モデルのパフォーマンスが評価された。
全体として、ドメイン認識の制約は、効率性を維持し、安定性を推論しながら精度を向上させることができる。
関連論文リスト
- Beyond Monolithic Architectures: A Multi-Agent Search and Knowledge Optimization Framework for Agentic Search [56.78490647843876]
エージェント検索は、大規模言語モデル(LLM)が推論とツールの使用をインターリーブできるようにすることによって、複雑な情報を探すための有望なパラダイムとして登場した。
本稿では,bfM-ASKを提案する。bfM-ASK,bfM-ASK,bfM-ASK,bfM-ASK,bfM-ASK,bfM-ASK,bfM-ASK,bfM-ASK。
論文 参考訳(メタデータ) (2026-01-08T08:13:27Z) - Constraints-of-Thought: A Framework for Constrained Reasoning in Language-Model-Guided Search [3.0130126601831235]
Constraints-of-Thought (Const-o-T) はモンテカルロ木探索(MCTS)が意味論的に意味のある経路を探索できるようにするフレームワークである。
我々は、Const-o-Tが制約誘導推論の一般化可能な基盤を提供し、より効率的、制約整合性、ドメイン適応型プランニングを可能にすることを実証した。
論文 参考訳(メタデータ) (2025-10-10T04:21:18Z) - Dynamic Generation of Multi-LLM Agents Communication Topologies with Graph Diffusion Models [99.85131798240808]
我々はtextitGuided Topology Diffusion (GTD) と呼ばれる新しい生成フレームワークを導入する。
条件付き離散グラフ拡散モデルにインスパイアされたGTD式は、反復的な構成過程としてトポロジー合成を行う。
各ステップで生成は、多目的報酬を予測する軽量プロキシモデルによって制御される。
実験により、GTDは高いタスク適応性、スパース、効率的な通信トポロジを生成できることが示されている。
論文 参考訳(メタデータ) (2025-10-09T05:28:28Z) - DAMR: Efficient and Adaptive Context-Aware Knowledge Graph Question Answering with LLM-Guided MCTS [28.828541350757714]
本稿では,知識グラフ質問応答(KGQA)のための動的適応MCTSベースの推論(DAMR)を提案する。
DAMRは、MCTS(Monte Carlo Tree Search)と適応経路評価を統合し、コンテキスト対応のKGQAを実現する。
複数のKGQAベンチマークの実験では、DAMRはSOTA法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-08-01T15:38:21Z) - Matching Markets Meet LLMs: Algorithmic Reasoning with Ranked Preferences [12.277072346419748]
私たちは、リソース割り当てやライドシェアリングといったアプリケーションを支える中核的なフレームワークであるマッチング市場について研究しています。
我々は、嗜好に基づく推論タスクの階層構造に基づいて、いくつかの最先端モデルを評価する。
驚くべきことに、先進的な推論を持つトップパフォーマンスモデルでさえ、大きな市場の不安定性を解決するのに苦労している。
論文 参考訳(メタデータ) (2025-06-04T21:51:15Z) - LLaMA-Berry: Pairwise Optimization for O1-like Olympiad-Level Mathematical Reasoning [56.273799410256075]
このフレームワークはMonte Carlo Tree Search (MCTS)と反復的なSelf-Refineを組み合わせて推論パスを最適化する。
このフレームワークは、一般的なベンチマークと高度なベンチマークでテストされており、探索効率と問題解決能力の点で優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-03T18:12:29Z) - Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。