論文の概要: Understanding the Thinking Process of Reasoning Models: A Perspective from Schoenfeld's Episode Theory
- arxiv url: http://arxiv.org/abs/2509.14662v1
- Date: Thu, 18 Sep 2025 06:42:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.097855
- Title: Understanding the Thinking Process of Reasoning Models: A Perspective from Schoenfeld's Episode Theory
- Title(参考訳): 推論モデルの思考過程の理解:シェーンフェルドのエピソード論から
- Authors: Ming Li, Nan Zhang, Chenrui Fan, Hong Jiao, Yanbin Fu, Sydney Peters, Qingshu Xu, Robert Lissitz, Tianyi Zhou,
- Abstract要約: 本稿では,Schoenfeld のエピソード理論を応用して,大規模推論モデルの推論トレースを分析する手法を提案する。
我々は,7つの認知ラベルを用いて,モデル生成解から数学問題への数千の文と段落を注釈付けした。
予備分析では,認知状態間の遷移ダイナミクスなど,LRM推論の異なるパターンが明らかになった。
- 参考スコア(独自算出の注目度): 17.17769349034675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Large Reasoning Models (LRMs) generate extensive chain-of-thought reasoning, we lack a principled framework for understanding how these thoughts are structured. In this paper, we introduce a novel approach by applying Schoenfeld's Episode Theory, a classic cognitive framework for human mathematical problem-solving, to analyze the reasoning traces of LRMs. We annotated thousands of sentences and paragraphs from model-generated solutions to math problems using seven cognitive labels (e.g., Plan, Implement, Verify). The result is the first publicly available benchmark for the fine-grained analysis of machine reasoning, including a large annotated corpus and detailed annotation guidebooks. Our preliminary analysis reveals distinct patterns in LRM reasoning, such as the transition dynamics between cognitive states. This framework provides a theoretically grounded methodology for interpreting LRM cognition and enables future work on more controllable and transparent reasoning systems.
- Abstract(参考訳): 大規模推論モデル(LRM)は思考の連鎖的推論を生成するが、これらの思考がどのように構成されているかを理解するための原則的な枠組みは欠如している。
本稿では,人間の数学的問題解決のための古典的認知フレームワークであるSchoenfeldのエピソード理論を応用して,LRMの推論トレースを分析することによって,新しいアプローチを提案する。
7つの認知ラベル(例: Plan, Implement, Verify)を用いて,モデル生成解から数学問題への数千の文と段落を注釈した。
その結果、大規模な注釈付きコーパスや詳細な注釈ガイドブックを含む、マシン推論のきめ細かい分析のための最初の公開ベンチマークとなった。
予備分析では,認知状態間の遷移ダイナミクスなど,LRM推論の異なるパターンが明らかになった。
このフレームワークは、LRM認知を解釈するための理論的に基礎的な方法論を提供し、より制御可能で透明な推論システムに関する将来の研究を可能にする。
関連論文リスト
- Analyzing Reasoning Consistency in Large Multimodal Models under Cross-Modal Conflicts [74.47786985522762]
テキスト慣性(textual inertia)と呼ばれる重要な障害モードを特定し、矛盾する視覚的証拠を無視しながら、モデルは間違ったテキストに盲目的に固執する傾向がある。
本稿では,多種多様なLMMの推論連鎖に摂動を構造的に注入するLogicGraph摂動プロトコルを提案する。
その結果,10%未満の症例で自己修正が成功し,主に視覚的テキスト誤りの伝播に寄与することが判明した。
論文 参考訳(メタデータ) (2026-01-07T16:39:34Z) - Schoenfeld's Anatomy of Mathematical Reasoning by Language Models [56.656180566692946]
我々は、Schoenfeldのエピソード理論を誘導型中間スケールレンズとして採用し、ThinkARM(モデルにおける推論の解剖学)を紹介する。
ThinkARMは、推論トレースを分析、探索、実装、検証などの機能的推論ステップに明示的に抽象化する。
エピソードレベルの表現は推論ステップを明確にし、現代の言語モデルにおける推論がどのように構造化され、安定化され、変更されるかの体系的な分析を可能にする。
論文 参考訳(メタデータ) (2025-12-23T02:44:25Z) - Probing the "Psyche'' of Large Reasoning Models: Understanding Through a Human Lens [28.277723085755806]
大規模推論モデル(LRM)は、複雑なタスクに対処する際、例外的な能力のため、研究者から大きな注目を集めている。
本稿では、原子推論のステップを特徴付け、LEM知能の「精神」を調査するための包括的分類法を提案する。
人間の精神過程から派生した5つのグループと17のカテゴリから構成されており、学際的な観点からのLRMの理解の基礎となっている。
論文 参考訳(メタデータ) (2025-11-30T04:49:44Z) - Modeling Hierarchical Thinking in Large Reasoning Models [2.429493364781869]
大規模言語モデル(LLM)は、ステップバイステップのソリューションを生成する際に顕著な推論能力を示す。
連鎖推論の例を使って訓練すると、結果として得られたモデルは、人間が使用するものに似た階層的な思考戦略を学ぶように見える。
本稿では, LRMの階層的推論力学を構造的, 解釈可能な抽象化として近似するために, メモリレス有限状態機械の定式化を採用する。
論文 参考訳(メタデータ) (2025-10-25T21:25:30Z) - The Universal Landscape of Human Reasoning [60.72403709545137]
情報フロー追跡(IF-Track)を導入し,情報エントロピーの定量化と,各推論ステップにおけるゲインの定量化を行う。
IF-Trackは,本質的な推論特徴を捉え,系統的な誤りパターンを識別し,個人差を特徴付ける。
このアプローチは理論と測定の間の定量的な橋渡しを確立し、推論のアーキテクチャに関する機械的な洞察を提供する。
論文 参考訳(メタデータ) (2025-10-24T16:26:36Z) - A Study on Thinking Patterns of Large Reasoning Models in Code Generation [14.138043269602074]
大規模言語モデル(LLM)は、コード生成のようなソフトウェア工学のタスクに利用される。
本稿では,LRMのコード生成時の推論動作の調査と解明を目的とした総合的研究について述べる。
我々は, 4段階にわたる15の推論行動を含む, LRM推論行動の分類法を導出した。
論文 参考訳(メタデータ) (2025-09-17T07:13:12Z) - Socratic-PRMBench: Benchmarking Process Reward Models with Systematic Reasoning Patterns [79.42805969325036]
プロセス・リワード・モデル(PRM)は複雑な推論と問題解決に不可欠である。
PRMは、推論プロセス中に様々な推論パターンの下でエラーを特定する必要がある。
既存のベンチマークは主に、段階的に正しいPRMを評価することに焦点を当てている。
Socratic-PRMBenchは、6つの推論パターンでPRMを体系的に評価する新しいベンチマークである。
論文 参考訳(メタデータ) (2025-05-29T14:26:53Z) - Let LRMs Break Free from Overthinking via Self-Braking Tuning [68.93713497579853]
大きな推論モデル(LRM)は思考の長い連鎖を生成することによって推論能力を著しく向上させた。
この性能向上は、生成プロセス中の冗長な推論を大幅に増加させるコストが伴う。
本稿では、モデルが独自の推論プロセスを制御することを許容する観点から、過度に検討する新しいフレームワーク、Self-Braking Tuning(SBT)を提案する。
論文 参考訳(メタデータ) (2025-05-20T16:53:40Z) - Hypothesis-Driven Theory-of-Mind Reasoning for Large Language Models [76.6028674686018]
エージェントの精神状態を追跡するための推論時間推論アルゴリズムである思考トレースを導入する。
提案アルゴリズムは,ベイズ理論をモデルとした。
本研究は,様々なベンチマークにおける思考トレーシングを評価し,大幅な性能向上を実証した。
論文 参考訳(メタデータ) (2025-02-17T15:08:50Z) - LogiDynamics: Unraveling the Dynamics of Inductive, Abductive and Deductive Logical Inferences in LLM Reasoning [74.0242521818214]
本稿では,大言語モデル(LLM)におけるインダクティブ(システム1)と帰納的/帰納的(システム2)の推論の比較力学を体系的に検討する。
我々は、制御されたアナログ推論環境、多様度(テキスト、視覚、記号)、難易度、タスク形式(MCQ/フリーテキスト)を利用する。
我々の分析によると、System 2のパイプラインは一般的に、特に視覚的/象徴的なモダリティや難しいタスクにおいて優れており、System 1はテキストやより簡単な問題に対して競争力がある。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - A Systematic Analysis of Large Language Models as Soft Reasoners: The Case of Syllogistic Inferences [5.141416267381492]
我々は、論理学と認知心理学において広範囲に研究されている誘因的推論の領域であるシロメトリクス推論の事例を考察する。
思考の連鎖的推論,文脈内学習,教師付き微調整がシロメトリクス的推論に及ぼす影響について検討した。
以上の結果から,事前学習したLSMの行動は認知科学によって説明できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-06-17T08:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。