論文の概要: Do explanations generalize across large reasoning models?
- arxiv url: http://arxiv.org/abs/2601.11517v1
- Date: Fri, 16 Jan 2026 18:55:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.605964
- Title: Do explanations generalize across large reasoning models?
- Title(参考訳): 説明は大きな推論モデルにまたがって一般化されるか?
- Authors: Koyena Pal, David Bau, Chandan Singh,
- Abstract要約: 本研究では,ある LRM が生成した説明が,他の LRM に与えられた場合と同じ挙動を誘導するか否かを考察する。
CoT の説明は、しばしばこの種の一般化を示す。
一貫性を向上する簡単な文レベルのアンサンブル戦略を提案する。
- 参考スコア(独自算出の注目度): 20.951072030755366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large reasoning models (LRMs) produce a textual chain of thought (CoT) in the process of solving a problem, which serves as a potentially powerful tool to understand the problem by surfacing a human-readable, natural-language explanation. However, it is unclear whether these explanations generalize, i.e. whether they capture general patterns about the underlying problem rather than patterns which are esoteric to the LRM. This is a crucial question in understanding or discovering new concepts, e.g. in AI for science. We study this generalization question by evaluating a specific notion of generalizability: whether explanations produced by one LRM induce the same behavior when given to other LRMs. We find that CoT explanations often exhibit this form of generalization (i.e. they increase consistency between LRMs) and that this increased generalization is correlated with human preference rankings and post-training with reinforcement learning. We further analyze the conditions under which explanations yield consistent answers and propose a straightforward, sentence-level ensembling strategy that improves consistency. Taken together, these results prescribe caution when using LRM explanations to yield new insights and outline a framework for characterizing LRM explanation generalization.
- Abstract(参考訳): 大きな推論モデル(LRM)は、問題を解決する過程において、テキストによる思考の連鎖(CoT)を生成する。
しかし、これらの説明が一般化するかどうか、すなわち、LRMに密接なパターンではなく、根本問題に関する一般的なパターンをキャプチャするかどうかは不明である。
これは、科学のためのAIなど、新しい概念を理解したり発見したりする上で重要な問題である。
一般化可能性の特定の概念を評価することにより、この一般化問題を考察する:ある LRM が生成した説明が他の LRM に与えられたときと同じ振る舞いを誘導するか否か。
CoT の説明は,このような一般化(すなわち LRM 間の整合性の向上)をしばしば示し,この一般化が人間の嗜好ランクと強化学習によるポストトレーニングと相関していることが判明した。
さらに、説明が一貫した回答をもたらす条件を解析し、一貫性を向上させるための単純で文レベルの組立戦略を提案する。
これらの結果は, LRM説明を用いて新たな洞察を導き, LRM説明の一般化を特徴づける枠組みの概要を示すものである。
関連論文リスト
- Consistency Is Not Always Correct: Towards Understanding the Role of Exploration in Post-Training Reasoning [75.79451512757844]
基礎モデルは幅広い知識を示すが、タスク固有の推論は限定的である。
RLVRと推論スケーリングは、RLVRや推論スケーリングのようなトレーニング後の戦略を動機付けます。
RLVRはスキューズ効果を誘発し,推論エントロピーを減少させ,正しい経路を忘れることを示した。
論文 参考訳(メタデータ) (2025-11-10T18:25:26Z) - Understanding the Thinking Process of Reasoning Models: A Perspective from Schoenfeld's Episode Theory [17.17769349034675]
本稿では,Schoenfeld のエピソード理論を応用して,大規模推論モデルの推論トレースを分析する手法を提案する。
我々は,7つの認知ラベルを用いて,モデル生成解から数学問題への数千の文と段落を注釈付けした。
予備分析では,認知状態間の遷移ダイナミクスなど,LRM推論の異なるパターンが明らかになった。
論文 参考訳(メタデータ) (2025-09-18T06:42:41Z) - Generalization or Hallucination? Understanding Out-of-Context Reasoning in Transformers [80.70134000599391]
我々は、両方の行動は、アウト・オブ・コンテクスト推論(OCR)として知られる単一のメカニズムに由来すると論じる。
OCRは、関連する概念が因果関係であるかによって、一般化と幻覚の両方を駆動する。
我々の研究は、OCR現象を理解するための理論的基盤を提供し、知識注入から望ましくない行動を分析し緩和するための新しいレンズを提供する。
論文 参考訳(メタデータ) (2025-06-12T16:50:45Z) - On Reasoning Strength Planning in Large Reasoning Models [50.61816666920207]
我々は, LRM が, 世代前においても, アクティベーションにおける推論強度を事前に計画している証拠を見出した。
次に、LEMがモデルのアクティベーションに埋め込まれた方向ベクトルによって、この推論強度を符号化していることを明らかにする。
我々の研究は、LEMにおける推論の内部メカニズムに関する新たな洞察を提供し、それらの推論行動を制御するための実践的なツールを提供する。
論文 参考訳(メタデータ) (2025-06-10T02:55:13Z) - The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity [16.266145641151375]
大規模な推論モデルは、回答を提供する前に詳細な思考プロセスを生成する。
我々は, LRM がある種の複雑さを超えて完全に精度の低下に直面していることを示す。
また、より深く推論の痕跡を調べ、探索された解のパターンを研究する。
論文 参考訳(メタデータ) (2025-06-07T22:42:29Z) - Demystifying Reasoning Dynamics with Mutual Information: Thinking Tokens are Information Peaks in LLM Reasoning [33.040747962183076]
大規模推論モデル(LRM)は複雑な問題解決において顕著な能力を示したが、その内部の推論機構はよく理解されていない。
特定の生成段階におけるMIは, LRMの推論過程において, 突然, 顕著な増加を示す。
次に、これらのシンキングトークンがLRMの推論性能に不可欠であるのに対して、他のトークンは最小限の影響しか与えないことを示す。
論文 参考訳(メタデータ) (2025-06-03T13:31:10Z) - In Search of Robust Measures of Generalization [79.75709926309703]
我々は、一般化誤差、最適化誤差、過大なリスクのバウンダリを開発する。
経験的に評価すると、これらの境界の大部分は数値的に空白である。
我々は、分散ロバストネスの枠組みの中で、一般化対策を評価するべきであると論じる。
論文 参考訳(メタデータ) (2020-10-22T17:54:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。