論文の概要: Towards Understanding the Cognitive Habits of Large Reasoning Models
- arxiv url: http://arxiv.org/abs/2506.21571v2
- Date: Sun, 06 Jul 2025 02:26:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.440349
- Title: Towards Understanding the Cognitive Habits of Large Reasoning Models
- Title(参考訳): 大規模推論モデルの認知行動の理解に向けて
- Authors: Jianshuo Dong, Yujia Fu, Chuanrui Hu, Chao Zhang, Han Qiu,
- Abstract要約: 大規模推論モデル(LRM)は、最終的な応答を生成する前に、自律的に思考の連鎖(CoT)を生成する。
特定のCoTパターンがタスク全体にわたって一貫して現れるという観察に触発された私たちは、LRMが人間のような認知習慣を示すかどうかを探求する。
我々は、LRMの認知的習慣を評価するために設計された、原則付きベンチマークであるCogTestを紹介する。
- 参考スコア(独自算出の注目度): 5.949116424370627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Reasoning Models (LRMs), which autonomously produce a reasoning Chain of Thought (CoT) before producing final responses, offer a promising approach to interpreting and monitoring model behaviors. Inspired by the observation that certain CoT patterns -- e.g., ``Wait, did I miss anything?'' -- consistently emerge across tasks, we explore whether LRMs exhibit human-like cognitive habits. Building on Habits of Mind, a well-established framework of cognitive habits associated with successful human problem-solving, we introduce CogTest, a principled benchmark designed to evaluate LRMs' cognitive habits. CogTest includes 16 cognitive habits, each instantiated with 25 diverse tasks, and employs an evidence-first extraction method to ensure reliable habit identification. With CogTest, we conduct a comprehensive evaluation of 16 widely used LLMs (13 LRMs and 3 non-reasoning ones). Our findings reveal that LRMs, unlike conventional LLMs, not only exhibit human-like habits but also adaptively deploy them according to different tasks. Finer-grained analyses further uncover patterns of similarity and difference in LRMs' cognitive habit profiles, particularly certain inter-family similarity (e.g., Qwen-3 models and DeepSeek-R1). Extending the study to safety-related tasks, we observe that certain habits, such as Taking Responsible Risks, are strongly associated with the generation of harmful responses. These findings suggest that studying persistent behavioral patterns in LRMs' CoTs is a valuable step toward deeper understanding of LLM misbehavior. The code is available at: https://github.com/jianshuod/CogTest.
- Abstract(参考訳): 大規模推論モデル(LRM)は、最終的な応答を生成する前に思考の連鎖(CoT)を自律的に生成するが、モデルの振る舞いを解釈し、監視するための有望なアプローチを提供する。
ある種のCoTパターン(例: ‘Wait, I miss anything?'')がタスク全体にわたって一貫して現れるという観察にインスパイアされた私たちは、LEMが人間のような認知習慣を示すかどうかを探求する。
人間の問題解決の成功に伴う認知習慣の確立したフレームワークであるハビット・オブ・マインド(Habits of Mind)を基盤として,LRMの認知習慣を評価するために設計された,原則化されたベンチマークであるCogTestを紹介した。
CogTestは16の認知的習慣を含み、それぞれ25の多様なタスクでインスタンス化され、信頼できる習慣識別を保証するためにエビデンスファースト抽出方式を採用している。
CogTestでは16個のLLM(13個のLRMと3個の非共振器)を包括的に評価する。
LRMは従来のLLMとは異なり、人間のような習慣を示すだけでなく、異なるタスクに応じて適応的に展開する。
特に家族間類似性(例えば、Qwen-3モデルとDeepSeek-R1モデル)は、LRMの認知的習慣プロファイルの類似性と差異のパターンを明らかにする。
研究を安全関連タスクに拡張することで、責任あるリスクを負うなどの特定の習慣が有害な応答の発生に強く関係していることが観察される。
以上の結果から, LRMs CoTsにおける持続的行動パターンの研究は, LLMの誤動作をより深く理解するための重要なステップであることが示唆された。
コードは、https://github.com/jianshuod/CogTest.comで入手できる。
関連論文リスト
- Is Long-to-Short a Free Lunch? Investigating Inconsistency and Reasoning Efficiency in LRMs [8.359909829007005]
大規模推論モデル(LRM)において,効率的な推論手法が行動の不整合をもたらすかどうかを検討する。
$ICBENCH$は、3次元にわたるLRMの不整合を測定するために設計されたベンチマークである。
より大きなモデルは一般的に小さなモデルよりも一貫性が高いが、すべてのモデルが広く「計画的」な振る舞いを示す。
論文 参考訳(メタデータ) (2025-06-24T10:25:28Z) - The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity [16.266145641151375]
大規模な推論モデルは、回答を提供する前に詳細な思考プロセスを生成する。
我々は, LRM がある種の複雑さを超えて完全に精度の低下に直面していることを示す。
また、より深く推論の痕跡を調べ、探索された解のパターンを研究する。
論文 参考訳(メタデータ) (2025-06-07T22:42:29Z) - United Minds or Isolated Agents? Exploring Coordination of LLMs under Cognitive Load Theory [14.058714578635222]
大規模言語モデル(LLM)は、複雑で多面的なタスクに顕著なパフォーマンス天井を示す。
CoThinkerは認知的過負荷を軽減し、協調的な問題解決能力を高めるために設計された新しいフレームワークである。
論文 参考訳(メタデータ) (2025-06-07T15:48:04Z) - Two Experts Are All You Need for Steering Thinking: Reinforcing Cognitive Effort in MoE Reasoning Models Without Additional Training [86.70255651945602]
我々はReinforcecing Cognitive Experts(RICE)と呼ばれる新しい推論時ステアリング手法を導入する。
RICEは、追加のトレーニングや複雑化なしに推論のパフォーマンスを改善することを目的としている。
先行する MoE ベースの LRM を用いた経験的評価は、推論精度、認知効率、ドメイン間の一般化において顕著で一貫した改善を示す。
論文 参考訳(メタデータ) (2025-05-20T17:59:16Z) - Cognition Chain for Explainable Psychological Stress Detection on Social Media [29.25424712182019]
ストレスは世界的な健康問題であり、深刻なメンタルヘルス問題を引き起こす可能性がある。
現在の早期検出モデルは、限定的な説明可能性と信頼に苦しむ「ブラックボックス」推論を実行する。
我々は,説明可能なストレス検出モデルであるCogLLMを開発した。
論文 参考訳(メタデータ) (2024-12-18T16:26:47Z) - Towards CausalGPT: A Multi-Agent Approach for Faithful Knowledge Reasoning via Promoting Causal Consistency in LLMs [55.66353783572259]
Causal-Consistency Chain-of-Thoughtは、基礎モデルの忠実さと因果性を強化するために、マルチエージェントコラボレーションを活用する。
我々のフレームワークは、広範囲かつ包括的な評価を通じて、最先端の手法よりも大きな優位性を示す。
論文 参考訳(メタデータ) (2023-08-23T04:59:21Z) - Seeing is not Believing: Robust Reinforcement Learning against Spurious
Correlation [57.351098530477124]
国家の異なる部分には、保存されていない共同設立者が引き起こす相関関係が存在しない。
このような役に立たないあるいは有害な相関を学習するモデルは、テストケースの共同創設者がトレーニングケースから逸脱したときに破滅的に失敗する可能性がある。
したがって、単純かつ非構造的な不確実性集合を仮定する既存の頑健なアルゴリズムは、この問題に対処するには不十分である。
論文 参考訳(メタデータ) (2023-07-15T23:53:37Z) - OlaGPT: Empowering LLMs With Human-like Problem-Solving Abilities [19.83434949066066]
本稿では,OlaGPTと呼ばれる新しいインテリジェントなフレームワークを紹介する。
OlaGPTは認知アーキテクチャの枠組みを慎重に研究し、人間の認知の特定の側面をシミュレートすることを提案する。
このフレームワークは、注意、記憶、推論、学習、および対応するスケジューリングと意思決定メカニズムを含む、異なる認知モジュールの近似を含む。
論文 参考訳(メタデータ) (2023-05-23T09:36:51Z) - Confounder Identification-free Causal Visual Feature Learning [84.28462256571822]
本稿では,創始者を特定する必要性を排除した,創始者同定自由因果視覚特徴学習(CICF)手法を提案する。
CICFは、フロントドア基準に基づいて異なるサンプル間の介入をモデル化し、インスタンスレベルの介入に対するグローバルスコープ干渉効果を近似する。
我々は,CICFと一般的なメタラーニング戦略MAMLの関係を明らかにするとともに,MAMLが理論的観点から機能する理由を解釈する。
論文 参考訳(メタデータ) (2021-11-26T10:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。