論文の概要: Monitor-Generate-Verify (MGV):Formalising Metacognitive Theory for Language Model Reasoning
- arxiv url: http://arxiv.org/abs/2511.04341v1
- Date: Thu, 06 Nov 2025 13:22:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.427604
- Title: Monitor-Generate-Verify (MGV):Formalising Metacognitive Theory for Language Model Reasoning
- Title(参考訳): Monitor-Generate-Verify (MGV):言語モデル推論のためのメタ認知理論の定式化
- Authors: Nick Oh, Fernand Gobet,
- Abstract要約: フラヴェルとネルソンとナレンスのメタ認知理論を計算仕様に定式化する。
メタ認知体験をキャプチャする明示的なモニタリングを追加することで、Generate-Verifyパラダイムを拡張します。
- 参考スコア(独自算出の注目度): 45.88028371034407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Test-time reasoning architectures such as those following the Generate-Verify paradigm -- where a model iteratively refines or verifies its own generated outputs -- prioritise generation and verification but exclude the monitoring processes that determine when and how reasoning should begin. This omission may contribute to the prefix dominance trap, in which models commit early to suboptimal reasoning paths and seldom recover, yielding roughly 20% accuracy loss. We address this architectural gap by formalising Flavell's and Nelson and Narens' metacognitive theories into computational specifications, proposing the Monitor-Generate-Verify (MGV) framework. MGV extends the Generate-Verify paradigm by adding explicit monitoring that captures metacognitive experiences (from difficulty assessments to confidence judgements) before generation begins and refines future monitoring through verification feedback. Though we present no empirical validation, this work provides the first systematic computational translation of foundational metacognitive theories, offering a principled vocabulary for understanding reasoning system failures and suggesting specific architectural interventions for future test-time reasoning designs.
- Abstract(参考訳): Generate-Verifyパラダイムに従うようなテスト時の推論アーキテクチャ -- モデルを反復的に洗練または検証し、独自の出力を生成する -- は、生成と検証を優先するが、推論の開始時期と開始時期を決定する監視プロセスを除外する。
この欠落はプレフィックス支配トラップに寄与し、モデルが早期に最適な推論経路にコミットし、ほとんど回復せず、およそ20%の精度の損失をもたらす。
本稿では,FlavellとNelsonとNarensのメタ認知理論を計算仕様に定式化し,MGV(Monitor-Generate-Verify)フレームワークを提案する。
MGVは、生成開始前のメタ認知経験(困難評価から信頼性判断まで)をキャプチャし、検証フィードバックを通じて将来の監視を洗練する明示的なモニタリングを追加することで、ジェネレート・検証パラダイムを拡張している。
実証的な検証は行わないが,本研究は基礎的メタ認知理論の体系的翻訳を初めて提供し,システム障害の推論を理解するための原則的語彙を提供し,将来のテストタイム推論設計のための具体的なアーキテクチャ的介入を提案する。
関連論文リスト
- A Study of Rule Omission in Raven's Progressive Matrices [0.0]
分析的推論は人間の認知の中核にあり、人工知能の根本的な課題である。
本研究では、不完全学習条件下での現代AIシステムの一般化能力について検討する。
実験により、変圧器は慣れ親しんだ規則に対して強い性能を示すが、新しい規則や省略規則に直面すると、その精度は急激に低下することが明らかとなった。
論文 参考訳(メタデータ) (2025-10-03T15:53:28Z) - ProtoReasoning: Prototypes as the Foundation for Generalizable Reasoning in LLMs [54.154593699263074]
ProtoReasoningは、大規模推論モデルの推論能力を高めるフレームワークである。
ProtoReasoningは問題を対応するプロトタイプ表現に変換する。
ProtoReasoningは論理的推論に基づくベースラインモデルよりも4.7%改善されている。
論文 参考訳(メタデータ) (2025-06-18T07:44:09Z) - Deliberation on Priors: Trustworthy Reasoning of Large Language Models on Knowledge Graphs [42.89017474189868]
我々は、優先事項に関する審議(DP)と呼ばれる信頼できる推論フレームワークを提案する。
DPは、教師付き微調整とKahneman-Tversky最適化を組み合わせることで、構造的事前をLLM(Large Language Models)に統合する。
本フレームワークでは,LLMに対して,抽出した制約前処理に基づいて精巧な推論検証を行うための推論イントロスペクション戦略を採用している。
論文 参考訳(メタデータ) (2025-05-21T07:38:45Z) - Beyond Progress Measures: Theoretical Insights into the Mechanism of Grokking [50.465604300990904]
グロキング(Grokking)とは、オーバーフィッティングの拡張後のテスト精度の急激な改善を指す。
本研究では、素数演算のタスクにおいて、Transformerの基盤となるグルーキング機構について検討する。
論文 参考訳(メタデータ) (2025-04-04T04:42:38Z) - Interpretable Concept-Based Memory Reasoning [12.562474638728194]
コンセプトベースのメモリリゾナー(CMR)は、人間に理解でき、検証可能なタスク予測プロセスを提供するために設計された新しいCBMである。
CMRは、最先端のCBMに対する精度-解釈可能性のトレードオフを向上し、基礎的な真実と整合した論理規則を発見し、規則の介入を可能にし、事前デプロイ検証を可能にする。
論文 参考訳(メタデータ) (2024-07-22T10:32:48Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。