論文の概要: Towards Understanding the Cognitive Habits of Large Reasoning Models
- arxiv url: http://arxiv.org/abs/2506.21571v1
- Date: Fri, 13 Jun 2025 05:40:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-07 02:47:44.283772
- Title: Towards Understanding the Cognitive Habits of Large Reasoning Models
- Title(参考訳): 大規模推論モデルの認知行動の理解に向けて
- Authors: Jianshuo Dong, Yujia Fu, Chuanrui Hu, Chao Zhang, Han Qiu,
- Abstract要約: 大規模推論モデル(LRM)は、最終的な応答を生成する前に、自律的に思考の連鎖(CoT)を生成する。
特定のCoTパターンがタスク全体にわたって一貫して現れるという観察に触発された私たちは、LRMが人間のような認知習慣を示すかどうかを探求する。
我々は、LRMの認知的習慣を評価するために設計された、原則付きベンチマークであるCogTestを紹介する。
- 参考スコア(独自算出の注目度): 5.949116424370627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Reasoning Models (LRMs), which autonomously produce a reasoning Chain of Thought (CoT) before producing final responses, offer a promising approach to interpreting and monitoring model behaviors. Inspired by the observation that certain CoT patterns -- e.g., ``Wait, did I miss anything?'' -- consistently emerge across tasks, we explore whether LRMs exhibit human-like cognitive habits. Building on Habits of Mind, a well-established framework of cognitive habits associated with successful human problem-solving, we introduce CogTest, a principled benchmark designed to evaluate LRMs' cognitive habits. CogTest includes 16 cognitive habits, each instantiated with 25 diverse tasks, and employs an evidence-first extraction method to ensure reliable habit identification. With CogTest, we conduct a comprehensive evaluation of 16 widely used LLMs (13 LRMs and 3 non-reasoning ones). Our findings reveal that LRMs, unlike conventional LLMs, not only exhibit human-like habits but also adaptively deploy them according to different tasks. Finer-grained analyses further uncover patterns of similarity and difference in LRMs' cognitive habit profiles, particularly certain inter-family similarity (e.g., Qwen-3 models and DeepSeek-R1). Extending the study to safety-related tasks, we observe that certain habits, such as Taking Responsible Risks, are strongly associated with the generation of harmful responses. These findings suggest that studying persistent behavioral patterns in LRMs' CoTs is a valuable step toward deeper understanding of LLM misbehavior. The code is available at: https://github.com/jianshuod/CogTest.
- Abstract(参考訳): 大規模推論モデル(LRM)は、最終的な応答を生成する前に思考の連鎖(CoT)を自律的に生成するが、モデルの振る舞いを解釈し、監視するための有望なアプローチを提供する。
ある種のCoTパターン(例: ‘Wait, I miss anything?'')がタスク全体にわたって一貫して現れるという観察にインスパイアされた私たちは、LEMが人間のような認知習慣を示すかどうかを探求する。
人間の問題解決の成功に伴う認知習慣の確立したフレームワークであるハビット・オブ・マインド(Habits of Mind)を基盤として,LRMの認知習慣を評価するために設計された,原則化されたベンチマークであるCogTestを紹介した。
CogTestは16の認知的習慣を含み、それぞれ25の多様なタスクでインスタンス化され、信頼できる習慣識別を保証するためにエビデンスファースト抽出方式を採用している。
CogTestでは16個のLLM(13個のLRMと3個の非共振器)を包括的に評価する。
LRMは従来のLLMとは異なり、人間のような習慣を示すだけでなく、異なるタスクに応じて適応的に展開する。
特に家族間類似性(例えば、Qwen-3モデルとDeepSeek-R1モデル)は、LRMの認知的習慣プロファイルの類似性と差異のパターンを明らかにする。
研究を安全関連タスクに拡張することで、責任あるリスクを負うなどの特定の習慣が有害な応答の発生に強く関係していることが観察される。
以上の結果から, LRMs CoTsにおける持続的行動パターンの研究は, LLMの誤動作をより深く理解するための重要なステップであることが示唆された。
コードは、https://github.com/jianshuod/CogTest.comで入手できる。
関連論文リスト
- A Neuropsychologically Grounded Evaluation of LLM Cognitive Abilities [23.297279975389188]
大規模言語モデル(LLM)は10ベンチマークで統一された「一般的な要素」の能力を示す。
本稿では,3つの適応型神経心理学検査を基礎としたNeuroCognitionベンチマークを紹介する。
評価の結果,モデルがテキスト上で強く機能する一方で,画像のパフォーマンスが低下し,複雑さが増していることが明らかとなった。
論文 参考訳(メタデータ) (2026-03-03T02:54:58Z) - On the Paradoxical Interference between Instruction-Following and Task Solving [50.75960598434753]
次の命令は、大規模言語モデル(LLM)を、タスクの実行方法に関する明示的な制約を指定することで、人間の意図と整合させることを目的としている。
我々は,LLMのタスク解決能力にパラドックス的に干渉する命令に従うという,直感に反する現象を明らかにした。
本稿では,タスク解決に追従する命令の干渉を定量化する指標として,SUSTAINSCOREを提案する。
論文 参考訳(メタデータ) (2026-01-29T17:48:56Z) - UniCog: Uncovering Cognitive Abilities of LLMs through Latent Mind Space Analysis [69.50752734049985]
成長する研究機関は、大きな言語モデル(LLM)の認知過程が人間のものと根本的に異なることを示唆している。
潜在心空間を介してLLM認知を分析する統一フレームワークUniCogを提案する。
論文 参考訳(メタデータ) (2026-01-25T16:19:00Z) - Finding RELIEF: Shaping Reasoning Behavior without Reasoning Supervision via Belief Engineering [25.183793455770978]
大きな推論モデル(LRM)は複雑な問題解決において顕著な成功を収めているが、計算の冗長性や不誠実さの推論に悩まされることが多い。
本稿では,RELIEF(Reasoning Belief Engineering)を提案する。RELIEF(Reasoning Belief Engineering)は,モデルの自己概念と目標信念の青写真とを整合させることにより,LEMの振る舞いを形作るフレームワークである。
RELIEFは、目的の信念を肯定する自己反射的質問応答ペアを微調整することによって、望ましい特性を内部化する。
論文 参考訳(メタデータ) (2026-01-20T09:07:01Z) - Cognitive Mirrors: Exploring the Diverse Functional Roles of Attention Heads in LLM Reasoning [54.12174882424842]
大規模言語モデル(LLM)は、様々なタスクにおいて最先端のパフォーマンスを達成したが、内部メカニズムに関してはほとんど不透明である。
本稿では,注目者の役割と行動を体系的に分析する新しい解釈可能性フレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-03T10:24:34Z) - Probing the "Psyche'' of Large Reasoning Models: Understanding Through a Human Lens [28.277723085755806]
大規模推論モデル(LRM)は、複雑なタスクに対処する際、例外的な能力のため、研究者から大きな注目を集めている。
本稿では、原子推論のステップを特徴付け、LEM知能の「精神」を調査するための包括的分類法を提案する。
人間の精神過程から派生した5つのグループと17のカテゴリから構成されており、学際的な観点からのLRMの理解の基礎となっている。
論文 参考訳(メタデータ) (2025-11-30T04:49:44Z) - Cognitive Foundations for Reasoning and Their Manifestation in LLMs [63.12951576410617]
大規模言語モデル(LLM)は複雑な問題を解くが、単純な変種では失敗し、人間の推論と根本的に異なるメカニズムによって正しい出力を達成することを示唆している。
我々は認知科学研究を、推論不変量、メタ認知制御、推論と知識の組織化のための表現、変換操作にまたがる28の認知要素の分類学に合成する。
複雑な問題に対して66.7%の性能向上を図り、成功構造を自動的に把握するテストタイム推論ガイダンスを開発した。
論文 参考訳(メタデータ) (2025-11-20T18:59:00Z) - FaithCoT-Bench: Benchmarking Instance-Level Faithfulness of Chain-of-Thought Reasoning [62.452350134196934]
FaithCoT-Benchは、インスタンスレベルのCoT不信検出のための統一ベンチマークである。
我々の枠組みは差別的な決定問題として不誠実検出を定式化している。
FaithCoT-Bench は LLM のより解釈可能で信頼性の高い推論に向けた将来の研究の基盤となる。
論文 参考訳(メタデータ) (2025-10-05T05:16:54Z) - A Study on Thinking Patterns of Large Reasoning Models in Code Generation [14.138043269602074]
大規模言語モデル(LLM)は、コード生成のようなソフトウェア工学のタスクに利用される。
本稿では,LRMのコード生成時の推論動作の調査と解明を目的とした総合的研究について述べる。
我々は, 4段階にわたる15の推論行動を含む, LRM推論行動の分類法を導出した。
論文 参考訳(メタデータ) (2025-09-17T07:13:12Z) - Is Long-to-Short a Free Lunch? Investigating Inconsistency and Reasoning Efficiency in LRMs [8.359909829007005]
大規模推論モデル(LRM)において,効率的な推論手法が行動の不整合をもたらすかどうかを検討する。
$ICBENCH$は、3次元にわたるLRMの不整合を測定するために設計されたベンチマークである。
より大きなモデルは一般的に小さなモデルよりも一貫性が高いが、すべてのモデルが広く「計画的」な振る舞いを示す。
論文 参考訳(メタデータ) (2025-06-24T10:25:28Z) - The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity [16.266145641151375]
大規模な推論モデルは、回答を提供する前に詳細な思考プロセスを生成する。
我々は, LRM がある種の複雑さを超えて完全に精度の低下に直面していることを示す。
また、より深く推論の痕跡を調べ、探索された解のパターンを研究する。
論文 参考訳(メタデータ) (2025-06-07T22:42:29Z) - United Minds or Isolated Agents? Exploring Coordination of LLMs under Cognitive Load Theory [14.058714578635222]
大規模言語モデル(LLM)は、複雑で多面的なタスクに顕著なパフォーマンス天井を示す。
CoThinkerは認知的過負荷を軽減し、協調的な問題解決能力を高めるために設計された新しいフレームワークである。
論文 参考訳(メタデータ) (2025-06-07T15:48:04Z) - Two Experts Are All You Need for Steering Thinking: Reinforcing Cognitive Effort in MoE Reasoning Models Without Additional Training [86.70255651945602]
我々はReinforcecing Cognitive Experts(RICE)と呼ばれる新しい推論時ステアリング手法を導入する。
RICEは、追加のトレーニングや複雑化なしに推論のパフォーマンスを改善することを目的としている。
先行する MoE ベースの LRM を用いた経験的評価は、推論精度、認知効率、ドメイン間の一般化において顕著で一貫した改善を示す。
論文 参考訳(メタデータ) (2025-05-20T17:59:16Z) - Trade-offs in Large Reasoning Models: An Empirical Analysis of Deliberative and Adaptive Reasoning over Foundational Capabilities [101.77467538102924]
近年のLRM(Large Reasoning Models)の進歩は、特殊推論タスクにおいて顕著な性能を示している。
議論的推論能力の獲得は, LRMの基礎的能力を大幅に低下させることを示す。
適応推論(Zero-Thinking, Less-Thinking, Summary-Thinking)がこれらの欠点を効果的に軽減できることを示します。
論文 参考訳(メタデータ) (2025-03-23T08:18:51Z) - Thoughts Are All Over the Place: On the Underthinking of o1-Like LLMs [86.79757571440082]
OpenAIのo1のような大規模言語モデル(LLM)は複雑な推論タスクにおいて顕著な能力を示している。
我々は、o1-like LLMがしばしば異なる理性的思考を切り替える、という現象を特定する。
本稿では,思考間の早期移行を回避できる思考切替ペナルティTIPを用いた復号戦略を提案する。
論文 参考訳(メタデータ) (2025-01-30T18:58:18Z) - Cognition Chain for Explainable Psychological Stress Detection on Social Media [29.25424712182019]
ストレスは世界的な健康問題であり、深刻なメンタルヘルス問題を引き起こす可能性がある。
現在の早期検出モデルは、限定的な説明可能性と信頼に苦しむ「ブラックボックス」推論を実行する。
我々は,説明可能なストレス検出モデルであるCogLLMを開発した。
論文 参考訳(メタデータ) (2024-12-18T16:26:47Z) - Towards CausalGPT: A Multi-Agent Approach for Faithful Knowledge Reasoning via Promoting Causal Consistency in LLMs [55.66353783572259]
Causal-Consistency Chain-of-Thoughtは、基礎モデルの忠実さと因果性を強化するために、マルチエージェントコラボレーションを活用する。
我々のフレームワークは、広範囲かつ包括的な評価を通じて、最先端の手法よりも大きな優位性を示す。
論文 参考訳(メタデータ) (2023-08-23T04:59:21Z) - Seeing is not Believing: Robust Reinforcement Learning against Spurious
Correlation [57.351098530477124]
国家の異なる部分には、保存されていない共同設立者が引き起こす相関関係が存在しない。
このような役に立たないあるいは有害な相関を学習するモデルは、テストケースの共同創設者がトレーニングケースから逸脱したときに破滅的に失敗する可能性がある。
したがって、単純かつ非構造的な不確実性集合を仮定する既存の頑健なアルゴリズムは、この問題に対処するには不十分である。
論文 参考訳(メタデータ) (2023-07-15T23:53:37Z) - OlaGPT: Empowering LLMs With Human-like Problem-Solving Abilities [19.83434949066066]
本稿では,OlaGPTと呼ばれる新しいインテリジェントなフレームワークを紹介する。
OlaGPTは認知アーキテクチャの枠組みを慎重に研究し、人間の認知の特定の側面をシミュレートすることを提案する。
このフレームワークは、注意、記憶、推論、学習、および対応するスケジューリングと意思決定メカニズムを含む、異なる認知モジュールの近似を含む。
論文 参考訳(メタデータ) (2023-05-23T09:36:51Z) - Confounder Identification-free Causal Visual Feature Learning [84.28462256571822]
本稿では,創始者を特定する必要性を排除した,創始者同定自由因果視覚特徴学習(CICF)手法を提案する。
CICFは、フロントドア基準に基づいて異なるサンプル間の介入をモデル化し、インスタンスレベルの介入に対するグローバルスコープ干渉効果を近似する。
我々は,CICFと一般的なメタラーニング戦略MAMLの関係を明らかにするとともに,MAMLが理論的観点から機能する理由を解釈する。
論文 参考訳(メタデータ) (2021-11-26T10:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。