論文の概要: The Illusion of Insight in Reasoning Models
- arxiv url: http://arxiv.org/abs/2601.00514v1
- Date: Fri, 02 Jan 2026 00:12:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.488043
- Title: The Illusion of Insight in Reasoning Models
- Title(参考訳): 推論モデルにおける洞察のイラシオン
- Authors: Liv G. d'Aliberti, Manoel Horta Ribeiro,
- Abstract要約: 我々は,中段階のシフトと楽器の訓練を行い,それらを検出する。
推論シフトは稀であり,トレーニングの頻度が向上せず,精度が向上することはめったにない。
本研究は, 自己補正のメカニズムではなく, 不安定な推論行動の症状であることを示す。
- 参考スコア(独自算出の注目度): 1.160208922584163
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Do reasoning models have "Aha!" moments? Prior work suggests that models like DeepSeek-R1-Zero undergo sudden mid-trace realizations that lead to accurate outputs, implying an intrinsic capacity for self-correction. Yet, it remains unclear whether such intrinsic shifts in reasoning strategy actually improve performance. Here, we study mid-reasoning shifts and instrument training runs to detect them. Our analysis spans 1M+ reasoning traces, hundreds of training checkpoints, three reasoning domains, and multiple decoding temperatures and model architectures. We find that reasoning shifts are rare, do not become more frequent with training, and seldom improve accuracy, indicating that they do not correspond to prior perceptions of model insight. However, their effect varies with model uncertainty. Building on this finding, we show that artificially triggering extrinsic shifts under high entropy reliably improves accuracy. Our results show that mid-reasoning shifts are symptoms of unstable inference behavior rather than an intrinsic mechanism for self-correction.
- Abstract(参考訳): 推論モデルには“Aha!
以前の研究は、DeepSeek-R1-Zeroのようなモデルが突然、正確な出力につながる中間トレースの実現を行い、自己補正の本質的な能力を示していることを示唆していた。
しかし、そのような推論戦略の本質的な変化が実際に性能を向上するかどうかは不明だ。
そこで本研究では,中段階のシフトと楽器のトレーニングを行い,その検出を行う。
分析は100万以上の推論トレース、数百のトレーニングチェックポイント、3つの推論ドメイン、複数の復号温度とモデルアーキテクチャにまたがる。
推論シフトは稀であり、トレーニングの頻度が高くなることはなく、精度が向上することは滅多になく、モデルインサイトに対する事前の認識と一致しないことを示している。
しかし、その効果はモデルの不確実性によって異なる。
この結果から,高いエントロピーの下で人工的に外因性シフトを起こすことにより,精度が確実に向上することが示唆された。
本研究は, 自己補正のメカニズムではなく, 不安定な推論行動の症状であることを示す。
関連論文リスト
- Reasoning about Uncertainty: Do Reasoning Models Know When They Don't Know? [7.423494663010787]
推論言語モデルは、多くの挑戦的なベンチマークで最先端(SOTA)レコードを設定している。
従来の言語モデルと同様に、推論モデルは不正確で確実な応答を生成する傾向があります。
これらのモデルをいつ、どの程度信頼するかを知ることは、現実のアプリケーションにおける推論モデルの安全なデプロイに不可欠である。
論文 参考訳(メタデータ) (2025-06-22T21:46:42Z) - From Emergence to Control: Probing and Modulating Self-Reflection in Language Models [23.176641726866105]
自己回帰は、検証可能な報酬を伴う強化学習によって実現される強力な行動である。
自己回帰は微調整モデルに限らないことを示す。
論文 参考訳(メタデータ) (2025-06-13T20:40:13Z) - Rationales Are Not Silver Bullets: Measuring the Impact of Rationales on Model Performance and Reliability [70.4107059502882]
有理数拡張による学習言語モデルは、多くの既存の作品において有益であることが示されている。
モデル性能に対する合理的性の影響を徹底的に調査するため、包括的調査を行う。
論文 参考訳(メタデータ) (2025-05-30T02:39:37Z) - Reasoning Models Better Express Their Confidence [43.29929311958733]
大規模言語モデル(LLM)は、信頼を正確に伝達できないことが多い。
拡張チェーン・オブ・シークレット(CoT)推論に携わる推論モデルは優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2025-05-20T15:19:00Z) - SEAL: Steerable Reasoning Calibration of Large Language Models for Free [58.931194824519935]
大規模言語モデル(LLM)は、拡張チェーン・オブ・ソート(CoT)推論機構を通じて複雑な推論タスクに魅力的な機能を示した。
最近の研究では、CoT推論トレースにかなりの冗長性が示されており、これはモデル性能に悪影響を及ぼす。
我々は,CoTプロセスをシームレスに校正し,高い効率性を示しながら精度を向上する,トレーニング不要なアプローチであるSEALを紹介した。
論文 参考訳(メタデータ) (2025-04-07T02:42:07Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - VisFIS: Visual Feature Importance Supervision with
Right-for-the-Right-Reason Objectives [84.48039784446166]
モデルFI監督は、VQAモデルの精度と、Right-to-the-Right-Reasonメトリクスの性能を有意義に向上させることができることを示す。
我々の最高のパフォーマンス手法であるVisual Feature Importance Supervision (VisFIS)は、ベンチマークVQAデータセットで強いベースラインを上回ります。
説明が妥当で忠実な場合には予測がより正確になる。
論文 参考訳(メタデータ) (2022-06-22T17:02:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。