論文の概要: Modeling Hierarchical Thinking in Large Reasoning Models
- arxiv url: http://arxiv.org/abs/2510.22437v1
- Date: Sat, 25 Oct 2025 21:25:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.198493
- Title: Modeling Hierarchical Thinking in Large Reasoning Models
- Title(参考訳): 大規模推論モデルにおける階層的思考のモデル化
- Authors: G M Shahariar, Ali Nazari, Erfan Shayegani, Nael Abu-Ghazaleh,
- Abstract要約: 大規模言語モデル(LLM)は、ステップバイステップのソリューションを生成する際に顕著な推論能力を示す。
連鎖推論の例を使って訓練すると、結果として得られたモデルは、人間が使用するものに似た階層的な思考戦略を学ぶように見える。
本稿では, LRMの階層的推論力学を構造的, 解釈可能な抽象化として近似するために, メモリレス有限状態機械の定式化を採用する。
- 参考スコア(独自算出の注目度): 2.429493364781869
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable reasoning abilities when they generate step-by-step solutions, known as chain-of-thought (CoT) reasoning. When trained to using chain-of-thought reasoning examples, the resulting models (called Large Reasoning Models, or LRMs) appear to learn hierarchical thinking strategies similar to those used by humans. However, understanding LRMs emerging reasoning capabilities remains a difficult open problem, with many potential important applications including improving training and understanding robustness. In this paper, we adopt a memoryless Finite State Machine formulation to approximate LRM's emerging hierarchical reasoning dynamics as a structured, interpretable abstraction. We identify a small set of discrete reasoning states including - initialization, deduction, augmentation-strategy, uncertainty-estimation, backtracking, and final-conclusion that capture the high-level states present in the model's reasoning process. By annotating each step of a model's CoT with these states, we can represent the reasoning trajectory as a transition sequence through the state graph. This FSM formulation provides a systematic way to analyze, interpret and visualize how different models approach problems. We describe the FSM model, provide examples of CoT annotations under this scheme, and discuss how it can shed light on differences between available models in their approach to reasoning. Our results demonstrate that this FSM-based analysis reveals distinct reasoning patterns and potential shortcomings, offering a new lens to evaluate and improve LLM reasoning.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ステップバイステップのソリューションを生成する際、顕著な推論能力を示してきた。
連鎖推論の例を使って訓練すると、結果として得られたモデル(Large Reasoning Models または LRMs と呼ばれる)は、人間が使用するものに似た階層的な思考戦略を学ぶように見える。
しかし、LEMの出現する推論能力を理解することは、トレーニングの改善や堅牢性の理解など、多くの潜在的に重要なアプリケーションを含む、難しいオープンな問題のままである。
本稿では, LRMの階層的推論力学を構造的, 解釈可能な抽象化として近似するために, メモリレス有限状態機械の定式化を採用する。
モデルの推論過程に存在する高レベルな状態をキャプチャする、初期化、推論、拡張ストラテジー、不確実性推定、バックトラック、最終結論を含む、小さな離散的推論状態の集合を同定する。
モデルのCoTの各ステップをこれらの状態にアノテートすることで、状態グラフによる遷移シーケンスとして推論軌道を表現することができる。
このFSMの定式化は、異なるモデルがどのように問題にアプローチするかを分析し、解釈し、視覚化する体系的な方法を提供する。
本稿では、FSMモデルを記述し、このスキームに基づくCoTアノテーションの例を示し、それらの推論に対するアプローチにおける利用可能なモデルの違いを光を当てる方法について論じる。
以上の結果から, このFSMに基づく解析は, LLM推論を評価・改善するための新たなレンズを提供することにより, 異なる推論パターンと潜在的な欠点を明らかにした。
関連論文リスト
- Step-Aware Policy Optimization for Reasoning in Diffusion Large Language Models [57.42778606399764]
拡散言語モデル(dLLM)は、テキスト生成に有望で非自己回帰的なパラダイムを提供する。
現在の強化学習アプローチは、しばしばスパースで結果に基づく報酬に頼っている。
これは推論の自然な構造との根本的なミスマッチに由来すると我々は主張する。
論文 参考訳(メタデータ) (2025-10-02T00:34:15Z) - CTRLS: Chain-of-Thought Reasoning via Latent State-Transition [57.51370433303236]
チェーン・オブ・シント(CoT)推論は、大規模な言語モデルで複雑な問題を解釈可能な中間ステップに分解することを可能にする。
我々は,遅延状態遷移を伴うマルコフ決定プロセス(MDP)としてCoT推論を定式化するフレームワークであるgroundingSを紹介する。
我々は、ベンチマーク推論タスクにおける推論精度、多様性、探索効率の改善を示す。
論文 参考訳(メタデータ) (2025-07-10T21:32:18Z) - Cognitive Activation and Chaotic Dynamics in Large Language Models: A Quasi-Lyapunov Analysis of Reasoning Mechanisms [6.375329734462518]
本稿では,大規模言語モデルの推論機構の本質を明らかにする「認知活性化理論」を提案する。
実験により、モデルの情報の蓄積は非線形指数法則に従っており、Multilayer Perceptron (MLP) は最終的な出力においてより高い割合を占めることが示された。
本研究は, LLMの推論の解釈可能性に関するカオス理論の枠組みを提供し, モデル設計における創造性と信頼性のバランスをとるための潜在的経路を明らかにする。
論文 参考訳(メタデータ) (2025-03-15T08:15:10Z) - On the Reasoning Capacity of AI Models and How to Quantify It [0.0]
大規模言語モデル(LLM)は、その推論能力の基本的な性質に関する議論を激化させている。
GPQAやMMLUのようなベンチマークで高い性能を達成する一方で、これらのモデルはより複雑な推論タスクにおいて制限を示す。
本稿では,モデル行動のメカニズムを解明するために,従来の精度指標を超える新しい現象論的手法を提案する。
論文 参考訳(メタデータ) (2025-01-23T16:58:18Z) - On the Diagram of Thought [20.805936414171892]
大規模言語モデル(LLM)は多くのタスクで優れているが、構造化された多段階の推論を必要とする複雑な問題に悩まされることが多い。
思考のダイアグラム(Diagram of Thought, DoT)は、1つのLCMがその推論のメンタルマップを構築し、ナビゲートすることを可能にする新しいフレームワークである。
論文 参考訳(メタデータ) (2024-09-16T07:01:41Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - Understanding the Language Model to Solve the Symbolic Multi-Step Reasoning Problem from the Perspective of Buffer Mechanism [68.05754701230039]
本研究では,トランスフォーマーモデルにおける情報伝達機構を解明するために,シンボル的多段階推論タスクを構築する。
モデルの推論能力を高めるために,ランダムな行列に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:41:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。