論文の概要: Monitor-Generate-Verify (MGV):Formalising Metacognitive Theory for Language Model Reasoning
- arxiv url: http://arxiv.org/abs/2511.04341v1
- Date: Thu, 06 Nov 2025 13:22:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.427604
- Title: Monitor-Generate-Verify (MGV):Formalising Metacognitive Theory for Language Model Reasoning
- Title(参考訳): Monitor-Generate-Verify (MGV):言語モデル推論のためのメタ認知理論の定式化
- Authors: Nick Oh, Fernand Gobet,
- Abstract要約: フラヴェルとネルソンとナレンスのメタ認知理論を計算仕様に定式化する。
メタ認知体験をキャプチャする明示的なモニタリングを追加することで、Generate-Verifyパラダイムを拡張します。
- 参考スコア(独自算出の注目度): 45.88028371034407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Test-time reasoning architectures such as those following the Generate-Verify paradigm -- where a model iteratively refines or verifies its own generated outputs -- prioritise generation and verification but exclude the monitoring processes that determine when and how reasoning should begin. This omission may contribute to the prefix dominance trap, in which models commit early to suboptimal reasoning paths and seldom recover, yielding roughly 20% accuracy loss. We address this architectural gap by formalising Flavell's and Nelson and Narens' metacognitive theories into computational specifications, proposing the Monitor-Generate-Verify (MGV) framework. MGV extends the Generate-Verify paradigm by adding explicit monitoring that captures metacognitive experiences (from difficulty assessments to confidence judgements) before generation begins and refines future monitoring through verification feedback. Though we present no empirical validation, this work provides the first systematic computational translation of foundational metacognitive theories, offering a principled vocabulary for understanding reasoning system failures and suggesting specific architectural interventions for future test-time reasoning designs.
- Abstract(参考訳): Generate-Verifyパラダイムに従うようなテスト時の推論アーキテクチャ -- モデルを反復的に洗練または検証し、独自の出力を生成する -- は、生成と検証を優先するが、推論の開始時期と開始時期を決定する監視プロセスを除外する。
この欠落はプレフィックス支配トラップに寄与し、モデルが早期に最適な推論経路にコミットし、ほとんど回復せず、およそ20%の精度の損失をもたらす。
本稿では,FlavellとNelsonとNarensのメタ認知理論を計算仕様に定式化し,MGV(Monitor-Generate-Verify)フレームワークを提案する。
MGVは、生成開始前のメタ認知経験(困難評価から信頼性判断まで)をキャプチャし、検証フィードバックを通じて将来の監視を洗練する明示的なモニタリングを追加することで、ジェネレート・検証パラダイムを拡張している。
実証的な検証は行わないが,本研究は基礎的メタ認知理論の体系的翻訳を初めて提供し,システム障害の推論を理解するための原則的語彙を提供し,将来のテストタイム推論設計のための具体的なアーキテクチャ的介入を提案する。
関連論文リスト
- Pushing the Boundaries of Natural Reasoning: Interleaved Bonus from Formal-Logic Verification [49.506412445511934]
大きな言語モデル(LLM)は目覚ましい能力を示すが、その次は論理的不整合と報奨ハックを生み出す。
本稿では,自然言語生成プロセスと形式的記号的検証を動的にインターリーブする形式論理検証誘導フレームワークを提案する。
我々はこのフレームワークを,形式論理検証誘導制御による微調整とポリシー最適化の相乗効果を生かした,新しい2段階のトレーニングパイプラインを通じて運用する。
論文 参考訳(メタデータ) (2026-01-30T07:01:25Z) - Analyzing Reasoning Consistency in Large Multimodal Models under Cross-Modal Conflicts [74.47786985522762]
テキスト慣性(textual inertia)と呼ばれる重要な障害モードを特定し、矛盾する視覚的証拠を無視しながら、モデルは間違ったテキストに盲目的に固執する傾向がある。
本稿では,多種多様なLMMの推論連鎖に摂動を構造的に注入するLogicGraph摂動プロトコルを提案する。
その結果,10%未満の症例で自己修正が成功し,主に視覚的テキスト誤りの伝播に寄与することが判明した。
論文 参考訳(メタデータ) (2026-01-07T16:39:34Z) - Abductive Inference in Retrieval-Augmented Language Models: Generating and Validating Missing Premises [0.0]
本稿では,帰納的推論をLLMに組み込むフレームワークを提案する。
帰納的推論とマルチホップQAベンチマークの実験結果から,本手法は解答精度と帰納的忠実度の両方を改善することが示された。
この研究は、RAGシステムの堅牢性と説明可能性を高めるための有望な方向として、帰納的推論を強調している。
論文 参考訳(メタデータ) (2025-11-06T03:37:24Z) - A Study of Rule Omission in Raven's Progressive Matrices [0.0]
分析的推論は人間の認知の中核にあり、人工知能の根本的な課題である。
本研究では、不完全学習条件下での現代AIシステムの一般化能力について検討する。
実験により、変圧器は慣れ親しんだ規則に対して強い性能を示すが、新しい規則や省略規則に直面すると、その精度は急激に低下することが明らかとなった。
論文 参考訳(メタデータ) (2025-10-03T15:53:28Z) - ProtoReasoning: Prototypes as the Foundation for Generalizable Reasoning in LLMs [54.154593699263074]
ProtoReasoningは、大規模推論モデルの推論能力を高めるフレームワークである。
ProtoReasoningは問題を対応するプロトタイプ表現に変換する。
ProtoReasoningは論理的推論に基づくベースラインモデルよりも4.7%改善されている。
論文 参考訳(メタデータ) (2025-06-18T07:44:09Z) - Deliberation on Priors: Trustworthy Reasoning of Large Language Models on Knowledge Graphs [42.89017474189868]
我々は、優先事項に関する審議(DP)と呼ばれる信頼できる推論フレームワークを提案する。
DPは、教師付き微調整とKahneman-Tversky最適化を組み合わせることで、構造的事前をLLM(Large Language Models)に統合する。
本フレームワークでは,LLMに対して,抽出した制約前処理に基づいて精巧な推論検証を行うための推論イントロスペクション戦略を採用している。
論文 参考訳(メタデータ) (2025-05-21T07:38:45Z) - Beyond Progress Measures: Theoretical Insights into the Mechanism of Grokking [50.465604300990904]
グロキング(Grokking)とは、オーバーフィッティングの拡張後のテスト精度の急激な改善を指す。
本研究では、素数演算のタスクにおいて、Transformerの基盤となるグルーキング機構について検討する。
論文 参考訳(メタデータ) (2025-04-04T04:42:38Z) - Interpretable Concept-Based Memory Reasoning [12.562474638728194]
コンセプトベースのメモリリゾナー(CMR)は、人間に理解でき、検証可能なタスク予測プロセスを提供するために設計された新しいCBMである。
CMRは、最先端のCBMに対する精度-解釈可能性のトレードオフを向上し、基礎的な真実と整合した論理規則を発見し、規則の介入を可能にし、事前デプロイ検証を可能にする。
論文 参考訳(メタデータ) (2024-07-22T10:32:48Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。