論文の概要: Understanding the Thinking Process of Reasoning Models: A Perspective from Schoenfeld's Episode Theory
- arxiv url: http://arxiv.org/abs/2509.14662v1
- Date: Thu, 18 Sep 2025 06:42:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.097855
- Title: Understanding the Thinking Process of Reasoning Models: A Perspective from Schoenfeld's Episode Theory
- Title(参考訳): 推論モデルの思考過程の理解:シェーンフェルドのエピソード論から
- Authors: Ming Li, Nan Zhang, Chenrui Fan, Hong Jiao, Yanbin Fu, Sydney Peters, Qingshu Xu, Robert Lissitz, Tianyi Zhou,
- Abstract要約: 本稿では,Schoenfeld のエピソード理論を応用して,大規模推論モデルの推論トレースを分析する手法を提案する。
我々は,7つの認知ラベルを用いて,モデル生成解から数学問題への数千の文と段落を注釈付けした。
予備分析では,認知状態間の遷移ダイナミクスなど,LRM推論の異なるパターンが明らかになった。
- 参考スコア(独自算出の注目度): 17.17769349034675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Large Reasoning Models (LRMs) generate extensive chain-of-thought reasoning, we lack a principled framework for understanding how these thoughts are structured. In this paper, we introduce a novel approach by applying Schoenfeld's Episode Theory, a classic cognitive framework for human mathematical problem-solving, to analyze the reasoning traces of LRMs. We annotated thousands of sentences and paragraphs from model-generated solutions to math problems using seven cognitive labels (e.g., Plan, Implement, Verify). The result is the first publicly available benchmark for the fine-grained analysis of machine reasoning, including a large annotated corpus and detailed annotation guidebooks. Our preliminary analysis reveals distinct patterns in LRM reasoning, such as the transition dynamics between cognitive states. This framework provides a theoretically grounded methodology for interpreting LRM cognition and enables future work on more controllable and transparent reasoning systems.
- Abstract(参考訳): 大規模推論モデル(LRM)は思考の連鎖的推論を生成するが、これらの思考がどのように構成されているかを理解するための原則的な枠組みは欠如している。
本稿では,人間の数学的問題解決のための古典的認知フレームワークであるSchoenfeldのエピソード理論を応用して,LRMの推論トレースを分析することによって,新しいアプローチを提案する。
7つの認知ラベル(例: Plan, Implement, Verify)を用いて,モデル生成解から数学問題への数千の文と段落を注釈した。
その結果、大規模な注釈付きコーパスや詳細な注釈ガイドブックを含む、マシン推論のきめ細かい分析のための最初の公開ベンチマークとなった。
予備分析では,認知状態間の遷移ダイナミクスなど,LRM推論の異なるパターンが明らかになった。
このフレームワークは、LRM認知を解釈するための理論的に基礎的な方法論を提供し、より制御可能で透明な推論システムに関する将来の研究を可能にする。
関連論文リスト
- Socratic-PRMBench: Benchmarking Process Reward Models with Systematic Reasoning Patterns [79.42805969325036]
プロセス・リワード・モデル(PRM)は複雑な推論と問題解決に不可欠である。
PRMは、推論プロセス中に様々な推論パターンの下でエラーを特定する必要がある。
既存のベンチマークは主に、段階的に正しいPRMを評価することに焦点を当てている。
Socratic-PRMBenchは、6つの推論パターンでPRMを体系的に評価する新しいベンチマークである。
論文 参考訳(メタデータ) (2025-05-29T14:26:53Z) - Hypothesis-Driven Theory-of-Mind Reasoning for Large Language Models [76.6028674686018]
エージェントの精神状態を追跡するための推論時間推論アルゴリズムである思考トレースを導入する。
提案アルゴリズムは,ベイズ理論をモデルとした。
本研究は,様々なベンチマークにおける思考トレーシングを評価し,大幅な性能向上を実証した。
論文 参考訳(メタデータ) (2025-02-17T15:08:50Z) - LogiDynamics: Unraveling the Dynamics of Inductive, Abductive and Deductive Logical Inferences in LLM Reasoning [74.0242521818214]
本稿では,大言語モデル(LLM)におけるインダクティブ(システム1)と帰納的/帰納的(システム2)の推論の比較力学を体系的に検討する。
我々は、制御されたアナログ推論環境、多様度(テキスト、視覚、記号)、難易度、タスク形式(MCQ/フリーテキスト)を利用する。
我々の分析によると、System 2のパイプラインは一般的に、特に視覚的/象徴的なモダリティや難しいタスクにおいて優れており、System 1はテキストやより簡単な問題に対して競争力がある。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - A Systematic Analysis of Large Language Models as Soft Reasoners: The Case of Syllogistic Inferences [5.141416267381492]
我々は、論理学と認知心理学において広範囲に研究されている誘因的推論の領域であるシロメトリクス推論の事例を考察する。
思考の連鎖的推論,文脈内学習,教師付き微調整がシロメトリクス的推論に及ぼす影響について検討した。
以上の結果から,事前学習したLSMの行動は認知科学によって説明できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-06-17T08:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。