論文の概要: Think$^{2}$: Grounded Metacognitive Reasoning in Large Language Models
- arxiv url: http://arxiv.org/abs/2602.18806v1
- Date: Sat, 21 Feb 2026 11:45:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.324955
- Title: Think$^{2}$: Grounded Metacognitive Reasoning in Large Language Models
- Title(参考訳): Think$^{2}$:大規模言語モデルにおけるメタ認知推論
- Authors: Abraham Paul Elenjical, Vivek Hruday Kavuri, Vasudeva Varma,
- Abstract要約: 大きな言語モデル(LLM)は強力な推論性能を示すが、確実に監視し、診断し、修正する能力は依然として限られている。
本稿では,アン・ブラウンの規制サイクルを構造的プロンプトアーキテクチャとして運用する,心理的基盤のメタ認知フレームワークを紹介する。
- 参考スコア(独自算出の注目度): 2.625250413679978
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) demonstrate strong reasoning performance, yet their ability to reliably monitor, diagnose, and correct their own errors remains limited. We introduce a psychologically grounded metacognitive framework that operationalizes Ann Brown's regulatory cycle (Planning, Monitoring, and Evaluation) as a structured prompting architecture, and study its integration within a lightweight dual-process MetaController for adaptive effort allocation. Across diverse reasoning and diagnostic benchmarks (GSM8K, CRUXEval, MBPP, AIME, CorrectBench, and TruthfulQA) using Llama-3 and Qwen-3 (8B), explicit regulatory structuring substantially improves error diagnosis and yields a threefold increase in successful self-correction. Blinded human evaluations over 580 query pairs show an 84% aggregate preference for trustworthiness and metacognitive self-awareness over standard and Chain-of-Thought baselines. Grounding LLM reasoning in established cognitive theory offers a principled path toward more transparent and diagnostically robust AI systems.
- Abstract(参考訳): 大きな言語モデル(LLM)は強力な推論性能を示すが、確実に監視し、診断し、修正する能力は依然として限られている。
我々は、アン・ブラウンの規制サイクル(プランニング、モニタリング、評価)を構造化プロンプトアーキテクチャとして運用する心理学的基盤のメタ認知フレームワークを導入し、適応的な作業割当のための軽量なデュアルプロセスメタコントローラにおける統合について検討する。
Llama-3 と Qwen-3 (8B) を用いた多種多様な推論と診断ベンチマーク(GSM8K, CRUXEval, MBPP, AIME, CorrectBench, TruthfulQA)により、明示的な規制構造がエラー診断を大幅に改善し、自己修正に成功した。
580以上のクエリーペアに対する盲点評価では、標準およびChain-of-Thoughtベースラインよりも信頼性とメタ認知的自己認識を84%の集合的嗜好を示す。
確立された認知理論におけるLLM推論は、より透明で診断的に堅牢なAIシステムへの原則的な道筋を提供する。
関連論文リスト
- Adaptive Diagnostic Reasoning Framework for Pathology with Multimodal Large Language Models [34.28963665009494]
本稿では,自己学習パラダイムを確立するための解釈可能なフレームワークRECAP-PATHを提案する。
既成のマルチモーダルな大規模言語モデルから、受動的パターン認識からエビデンスにリンクされた診断推論へと移行する。
この自己学習アプローチでは、小さなラベル付きセットのみを必要とし、がん診断を生成するためのホワイトボックスアクセスやウェイト更新は不要である。
論文 参考訳(メタデータ) (2025-11-15T03:06:59Z) - Structured Uncertainty guided Clarification for LLM Agents [126.26213027785813]
LLMエージェントは、ツールコール機能を備えた大きな言語モデルを拡張するが、曖昧なユーザ命令は、しばしば誤った呼び出しやタスクの失敗につながる。
本稿では,ツールコールパラメータに対する構造的不確かさの定式化,完全情報の期待値(EVPI)を目標としたPOMDPのモデル化,冗長性防止のためのアスペクトベースコストモデルを提案する。
我々のSAGE-Agentは、この構造化された不確実性を活用し、より優れた効率を達成するために、曖昧なタスクのカバレッジを7~39%増加させ、明確な質問を1.5~2.7$times$に減らした。
論文 参考訳(メタデータ) (2025-11-11T21:50:44Z) - Meta-R1: Empowering Large Reasoning Models with Metacognition [26.882951068900496]
大きな推論モデル(LRM)は複雑なタスクに顕著な能力を示し、創発的で人間らしい思考パターンを示す。
現在のLRMには「思考を考える」ことのできるメタレベルの認知システムがない
メタ認知機能を備えたLEMを包含する,体系的で汎用的なフレームワークであるMeta-R1を紹介する。
論文 参考訳(メタデータ) (2025-08-24T10:36:36Z) - Trustworthy Reasoning: Evaluating and Enhancing Factual Accuracy in LLM Intermediate Thought Processes [16.451488374845407]
本稿では,Large Language Models(LLMs)における重大な脆弱性に対処する新しいフレームワークを提案する。
この現象は、医療、法的な分析、科学研究など、高度な領域に重大なリスクをもたらす。
論文 参考訳(メタデータ) (2025-07-25T10:34:51Z) - Critique-GRPO: Advancing LLM Reasoning with Natural Language and Numerical Feedback [59.078756231841574]
Critique-GRPOは、自然言語と数値フィードバックを統合して効果的なポリシー最適化を行うオンラインRLフレームワークである。
批判-GRPOは、教師付き学習とRLに基づく微調整法を8つの難解な数学、STEM、一般的な推論タスクで一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2025-06-03T17:39:02Z) - Retrieval is Not Enough: Enhancing RAG Reasoning through Test-Time Critique and Optimization [58.390885294401066]
Retrieval-augmented Generation (RAG) は知識基底型大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
RAGパイプラインは、モデル推論が得られた証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
批判駆動アライメント(CDA)に基づく新しい反復的枠組みであるAlignRAGを提案する。
AlignRAG-autoは、動的に洗練を終了し、批判的な反復回数を事前に指定する必要がなくなる自律的な変種である。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - Bridging Social Psychology and LLM Reasoning: Conflict-Aware Meta-Review Generation via Cognitive Alignment [35.82355113500509]
大規模言語モデル(LLM)は、原稿批評の自動化において有望であることを示す。
既存の方法は、異なる意見の中で矛盾する視点を扱うのに失敗する。
本稿では,LLMを適応的な科学的調停器に変換する2プロセスアーキテクチャであるCognitive Alignment Framework(CAF)を提案する。
論文 参考訳(メタデータ) (2025-03-18T04:13:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。