論文の概要: Cognitive Foundations for Reasoning and Their Manifestation in LLMs
- arxiv url: http://arxiv.org/abs/2511.16660v1
- Date: Thu, 20 Nov 2025 18:59:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.805336
- Title: Cognitive Foundations for Reasoning and Their Manifestation in LLMs
- Title(参考訳): LLMにおける推論のための認知基盤とその操作
- Authors: Priyanka Kargupta, Shuyue Stella Li, Haocheng Wang, Jinu Lee, Shan Chen, Orevaoghene Ahia, Dean Light, Thomas L. Griffiths, Max Kleiman-Weiner, Jiawei Han, Asli Celikyilmaz, Yulia Tsvetkov,
- Abstract要約: 我々は認知科学研究を、計算制約、メタ認知制御、知識表現、変換操作にまたがる28の認知要素の分類学に合成する。
我々は、テキスト、視覚、オーディオのモダリティにまたがる17のモデルから、170Kのトレースを54の人間の思考情報トレースとともに、初めて大規模に分析した。
- 参考スコア(独自算出の注目度): 63.12951576410617
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models solve complex problems yet fail on simpler variants, suggesting they achieve correct outputs through mechanisms fundamentally different from human reasoning. We synthesize cognitive science research into a taxonomy of 28 cognitive elements spanning computational constraints, meta-cognitive controls, knowledge representations, and transformation operations, then analyze their behavioral manifestations in reasoning traces. We propose a fine-grained cognitive evaluation framework and conduct the first large-scale analysis of 170K traces from 17 models across text, vision, and audio modalities, alongside 54 human think-aloud traces, which we make publicly available. Our analysis reveals systematic structural differences: humans employ hierarchical nesting and meta-cognitive monitoring while models rely on shallow forward chaining, with divergence most pronounced on ill-structured problems. Meta-analysis of 1,598 LLM reasoning papers reveals the research community concentrates on easily quantifiable behaviors (sequential organization: 55%, decomposition: 60%) while neglecting meta-cognitive controls (self-awareness: 16%, evaluation: 8%) that correlate with success. Models possess behavioral repertoires associated with success but fail to deploy them spontaneously. Leveraging these patterns, we develop test-time reasoning guidance that automatically scaffold successful structures, improving performance by up to 60% on complex problems. By bridging cognitive science and LLM research, we establish a foundation for developing models that reason through principled cognitive mechanisms rather than brittle spurious reasoning shortcuts or memorization, opening new directions for both improving model capabilities and testing theories of human cognition at scale.
- Abstract(参考訳): 大きな言語モデルは複雑な問題を解くが、単純な変種では失敗し、人間の推論と根本的に異なるメカニズムを通して正しい出力を達成することを示唆している。
我々は認知科学研究を、計算制約、メタ認知制御、知識表現、変換操作にまたがる28の認知要素の分類学に合成し、その行動表現を推論トレースで分析する。
そこで本研究では, テキスト, 視覚, 音響モダリティを含む17種類のモデルから, 54個の思考情報と合わせて170Kのトレースを大規模に分析し, より詳細な認知評価フレームワークを提案する。
ヒトは階層的なネストとメタ認知モニタリングを使い、モデルは浅い前方連鎖に依存し、分岐は不規則な問題に最も顕著である。
1,598 LLM推論論文のメタ分析により、研究コミュニティは、成功と相関するメタ認知制御(自己認識:16%、評価:8%)を無視しながら、容易に定量化できる行動(シーケンシャルな組織:55%、分解:60%)に焦点を当てていることが明らかになった。
モデルには成功に関連する行動レパートリーがあるが、自発的に展開することができない。
これらのパターンを活用することで、我々は、成功した構造を自動的にスキャフォールドし、複雑な問題に対するパフォーマンスを最大60%改善するテストタイム推論ガイダンスを開発します。
認知科学とLLM研究の橋渡しにより、我々は、ショートカットや記憶の脆さではなく、原則化された認知メカニズムを通じて推論するモデルを開発するための基盤を確立し、モデル能力の向上と大規模認知の試験理論の両面での新しい方向性を開放する。
関連論文リスト
- Think Socially via Cognitive Reasoning [94.60442643943696]
本稿では,人間の社会的認知をモデルとした認知推論について紹介する。
CogFlowは、この機能をLLMに組み込む完全なフレームワークである。
論文 参考訳(メタデータ) (2025-09-26T16:27:29Z) - Understanding Human Limits in Pattern Recognition: A Computational Model of Sequential Reasoning in Rock, Paper, Scissors [7.7997684022104234]
仮説的マインドス(英: hypothetical Minds)は、対立する戦略に関する仮説を生成し、検証する、大きな言語モデルに基づくエージェントである。
同じ実験条件に適用した場合、HMは人間のパフォーマンスパターンを忠実に反映し、成功し、同様の方法で失敗することを示す。
教育的な介入を通じてモデル仮説を体系的に操作することにより、モデルが相手の行動に対する因果的理解を著しく更新することを発見した。
論文 参考訳(メタデータ) (2025-07-25T15:56:25Z) - Two Experts Are All You Need for Steering Thinking: Reinforcing Cognitive Effort in MoE Reasoning Models Without Additional Training [86.70255651945602]
我々はReinforcecing Cognitive Experts(RICE)と呼ばれる新しい推論時ステアリング手法を導入する。
RICEは、追加のトレーニングや複雑化なしに推論のパフォーマンスを改善することを目的としている。
先行する MoE ベースの LRM を用いた経験的評価は、推論精度、認知効率、ドメイン間の一般化において顕著で一貫した改善を示す。
論文 参考訳(メタデータ) (2025-05-20T17:59:16Z) - How Metacognitive Architectures Remember Their Own Thoughts: A Systematic Review [16.35521789216079]
メタ認知は、人工エージェントの自律性と適応性を高める可能性に大きな注目を集めている。
既存の概要は、基礎となるアルゴリズム、表現、そしてそれぞれの成功に気付かない概念レベルに留まっている。
論文 参考訳(メタデータ) (2025-02-28T08:48:41Z) - Unlocking Structured Thinking in Language Models with Cognitive Prompting [0.0]
大規模言語モデル(LLM)における問題解決を導く新しいアプローチとして認知的プロンプトを提案する。
本稿では,認知操作の決定論的シーケンス,自己適応型,ハイブリッド型という3つの変種を紹介する。
LLaMA, Gemma2, Qwenの各モデルの算術的推論ベンチマークGSM8Kにおける実験により、認知的プロンプトは標準的な質問応答に比べて性能が大幅に向上することが示された。
論文 参考訳(メタデータ) (2024-10-03T19:53:47Z) - MR-GSM8K: A Meta-Reasoning Benchmark for Large Language Model Evaluation [60.65820977963331]
大規模言語モデル(LLM)のための新しい評価パラダイムを導入する。
このパラダイムは、しばしば推論プロセスを無視する結果指向の評価から、より包括的な評価へと重点を移す。
GSM8Kデータセットにこのパラダイムを適用し,MR-GSM8Kベンチマークを開発した。
論文 参考訳(メタデータ) (2023-12-28T15:49:43Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - OlaGPT: Empowering LLMs With Human-like Problem-Solving Abilities [19.83434949066066]
本稿では,OlaGPTと呼ばれる新しいインテリジェントなフレームワークを紹介する。
OlaGPTは認知アーキテクチャの枠組みを慎重に研究し、人間の認知の特定の側面をシミュレートすることを提案する。
このフレームワークは、注意、記憶、推論、学習、および対応するスケジューリングと意思決定メカニズムを含む、異なる認知モジュールの近似を含む。
論文 参考訳(メタデータ) (2023-05-23T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。