論文の概要: Searching Meta Reasoning Skeleton to Guide LLM Reasoning
- arxiv url: http://arxiv.org/abs/2510.04116v1
- Date: Sun, 05 Oct 2025 09:36:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.465291
- Title: Searching Meta Reasoning Skeleton to Guide LLM Reasoning
- Title(参考訳): LLM推論のためのメタ推論骨格の探索
- Authors: Ziying Zhang, Yaqing Wang, Quanming Yao,
- Abstract要約: 我々は,従来の研究で提案された骨格を統一するために,指向性非環状グラフ(DAG)を用いたメタ推論スケルトンを表現した。
自動機械学習(AutoML)にインスパイアされたクエリ対応メタ推論スケルトンを検索するフレームワークであるAutoMRを提案する。
- 参考スコア(独自算出の注目度): 35.28434142749689
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Meta reasoning behaviors work as a skeleton to guide large language model (LLM) reasoning, thus help to improve reasoning performance. However, prior researches implement meta reasoning skeleton with manually designed structure, limiting ability to adapt to query-specific requirement and capture intricate logical dependency among reasoning steps. To deal with the challenges, we represent meta reasoning skeleton with directed acyclic graph (DAG) to unify skeletons proposed in prior works and model intricate logical dependency. Then we propose AutoMR, a framework that searches for query-aware meta reasoning skeleton automatically inspired by automated machine learning (AutoML). Specifically, we construct search space based on DAG representation of skeleton and then formulate the search problem. We design a dynamic skeleton sampling algorithm by expanding meta reasoning skeleton along with reasoning context at inference time. This algorithm can derive any meta reasoning skeleton in search space efficiently and adapt skeleton to evolving base reasoning context, thus enable efficient query-aware skeleton search. We conduct experiments on extensive benchmark datasets. Experimental results show that AutoMR achieves better reasoning performance than previous works broadly.
- Abstract(参考訳): メタ推論の振る舞いは、大きな言語モデル(LLM)推論を導くスケルトンとして機能し、推論のパフォーマンスを改善するのに役立つ。
しかし、以前の研究では、メタ推論スケルトンを手動で設計し、クエリ固有の要求に適応し、推論ステップ間の複雑な論理的依存関係をキャプチャする能力を制限する。
この課題に対処するため,本研究では,先行研究で提案された骨格を統一し,複雑な論理的依存関係をモデル化するために,DAGを用いたメタ推論スケルトンを表現した。
次に,自動機械学習(AutoML)にインスパイアされたクエリ対応メタ推論スケルトンを検索するフレームワークであるAutoMRを提案する。
具体的には,骨格のDAG表現に基づいて探索空間を構築し,探索問題を定式化する。
メタ推論スケルトンを推論時の推論コンテキストとともに拡張し,動的スケルトンサンプリングアルゴリズムを設計する。
このアルゴリズムは検索空間における任意のメタ推論スケルトンを効率的に導き出し、進化するベース推論コンテキストにスケルトンを適応させることにより、効率的なクエリ対応スケルトン探索を可能にする。
広範なベンチマークデータセットの実験を行います。
実験結果から,AutoMRは従来よりも高い推理性能が得られることがわかった。
関連論文リスト
- Adaptive Test-Time Reasoning via Reward-Guided Dual-Phase Search [62.1546099504045]
本稿では、推論を計画と実行に分離する二相テストタイムスケーリングフレームワークを提案する。
具体的には、推論軌跡を分解し、各フェーズの報酬モデルを構築し、探索者が個別に計画と実行を探索、実行できるようにする。
数学的推論とコード生成ベンチマークの両方の実験により、我々の手法は計算の冗長性を低減しつつ、常に精度を向上することを示した。
論文 参考訳(メタデータ) (2025-09-29T19:27:23Z) - Accelerating Large Language Model Reasoning via Speculative Search [59.48276891032373]
本稿では,大規模言語モデル(LLM)推論を著しく高速化する新しいSpec Searchフレームワークを提案する。
具体的には、SpecSearchは小さなモデルを使用して、思考とトークンのレベルで大きなモデルと戦略的に協力する。
SpecSearchの主要な柱は、大きなモデルの出力よりも品質が低い考えを効果的にフィルタリングする、新しい品質保存の拒絶メカニズムである。
論文 参考訳(メタデータ) (2025-05-03T12:14:08Z) - ReSearch: Learning to Reason with Search for LLMs via Reinforcement Learning [74.65632662894086]
本稿では,強化学習を通じてLLMをReason with Searchに学習するフレームワークであるReSearchを提案する。
提案手法では,検索操作を推論チェーンの不可欠な要素として扱う。
分析によると、ReSearchは自然にリフレクションや自己訂正のような高度な推論機能を引き出す。
論文 参考訳(メタデータ) (2025-03-25T09:00:58Z) - LLM Reasoners: New Evaluation, Library, and Analysis of Step-by-Step Reasoning with Large Language Models [25.537725151112387]
完全自動推論チェーン評価のためのAutoRaceを導入する。
既存の推論アルゴリズムと新しい推論アルゴリズムのモジュール実装を標準化するためのライブラリである LLM Reasoners も開発している。
論文 参考訳(メタデータ) (2024-04-08T06:35:09Z) - Query Structure Modeling for Inductive Logical Reasoning Over Knowledge
Graphs [67.043747188954]
KGに対する帰納的論理的推論のための構造モデル付きテキスト符号化フレームワークを提案する。
線形化されたクエリ構造とエンティティを、事前訓練された言語モデルを使ってエンコードして、回答を見つける。
2つの帰納的論理推論データセットと3つの帰納的推論データセットについて実験を行った。
論文 参考訳(メタデータ) (2023-05-23T01:25:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。