論文の概要: Know More, Know Clearer: A Meta-Cognitive Framework for Knowledge Augmentation in Large Language Models
- arxiv url: http://arxiv.org/abs/2602.12996v1
- Date: Fri, 13 Feb 2026 15:07:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.99857
- Title: Know More, Know Clearer: A Meta-Cognitive Framework for Knowledge Augmentation in Large Language Models
- Title(参考訳): Know More, Know Clearer: 大規模言語モデルにおける知識向上のためのメタ認知フレームワーク
- Authors: Hao Chen, Ye He, Yuchun Fan, Yukun Yan, Zhenghao Liu, Qingfu Zhu, Maosong Sun, Wanxiang Che,
- Abstract要約: 本稿では,異なる介入とアライメントによる信頼度向上のための新しいメタ認知フレームワークを提案する。
我々の手法は、知識空間をマスターされた、混乱した、行方不明な領域に分割し、対象とする知識拡大を導くために、内部認知信号を活用する。
我々のフレームワークは、知識能力の向上だけでなく、未知の知識をよりよく区別する認知行動の育成においても、その合理性を検証し、強いベースラインを一貫して上回ります。
- 参考スコア(独自算出の注目度): 80.21037538996553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge augmentation has significantly enhanced the performance of Large Language Models (LLMs) in knowledge-intensive tasks. However, existing methods typically operate on the simplistic premise that model performance equates with internal knowledge, overlooking the knowledge-confidence gaps that lead to overconfident errors or uncertain truths. To bridge this gap, we propose a novel meta-cognitive framework for reliable knowledge augmentation via differentiated intervention and alignment. Our approach leverages internal cognitive signals to partition the knowledge space into mastered, confused, and missing regions, guiding targeted knowledge expansion. Furthermore, we introduce a cognitive consistency mechanism to synchronize subjective certainty with objective accuracy, ensuring calibrated knowledge boundaries. Extensive experiments demonstrate the our framework consistently outperforms strong baselines, validating its rationality in not only enhancing knowledge capabilities but also fostering cognitive behaviors that better distinguish knowns from unknowns.
- Abstract(参考訳): 知識増強は、知識集約型タスクにおける大規模言語モデル(LLM)の性能を大幅に向上させた。
しかし、既存の手法は、モデルパフォーマンスが内部知識と同一であるという単純な前提で運用され、過度に信頼された誤りや不確実な真実につながる知識と信頼のギャップを見越す。
そこで我々は,このギャップを埋めるために,異なる介入とアライメントによる信頼度向上のための新しいメタ認知フレームワークを提案する。
我々の手法は、知識空間をマスターされた、混乱した、行方不明な領域に分割し、対象とする知識拡大を導くために、内部認知信号を活用する。
さらに、主観的確実性を客観的な精度と同期させ、校正された知識境界を確保するための認知的整合性機構を導入する。
我々のフレームワークは、知識能力の向上だけでなく、未知の知識をよりよく区別する認知行動を促進することによって、その合理性を検証し、強靭なベースラインを一貫して上回ることを示した。
関連論文リスト
- Knowledge-Level Consistency Reinforcement Learning: Dual-Fact Alignment for Long-Form Factuality [27.687276551678583]
幻覚と事実性の欠如は、大きな言語モデルの信頼性にとって重要な障害である。
本稿では,政策モデルの表現された知識と基本モデルのパラメトリック知識との知識整合性に着目した新しい枠組みを提案する。
論文 参考訳(メタデータ) (2025-09-28T09:23:06Z) - Towards Meta-Cognitive Knowledge Editing for Multimodal LLMs [71.8547241246169]
本稿では,MLLMのメタ認知的知識編集能力を評価するための新しいベンチマークであるCogEditを紹介する。
本稿では,自己認識のためのメタ知識メモリを構築するフレームワークであるMINDを提案する。
論文 参考訳(メタデータ) (2025-09-06T13:26:04Z) - Unveiling Knowledge Utilization Mechanisms in LLM-based Retrieval-Augmented Generation [77.10390725623125]
検索強化世代(RAG)は知識範囲の拡大に広く利用されている。
RAGは、オープンドメインの質問応答のような知識集約的なタスクを約束しているので、複雑なタスクやインテリジェントアシスタントへの幅広い応用は、その実用性をさらに進歩させてきた。
本稿では、RAGが内部(パラメトリック)知識と外部(検索)知識を統合する本質的なメカニズムを体系的に検討する。
論文 参考訳(メタデータ) (2025-05-17T13:13:13Z) - UniKnow: A Unified Framework for Reliable Language Model Behavior across Parametric and External Knowledge [14.81530569173485]
パラメトリックおよび外部知識にまたがる信頼性LM動作のための統一フレームワークUniKnowを紹介する。
UniKnowは、知識の衝突、気晴らし、不在状態などの知識シナリオにおける制御された評価を可能にする。
論文 参考訳(メタデータ) (2025-02-19T11:49:23Z) - Decoding Knowledge in Large Language Models: A Framework for Categorization and Comprehension [14.039653386385519]
大規模言語モデル(LLM)は知識を取得し、保持し、適用する。
本稿では,LLMの知識を2次元に分類する新しいフレームワークK-(CSA)2を紹介する。
論文 参考訳(メタデータ) (2025-01-02T16:34:10Z) - InfuserKI: Enhancing Large Language Models with Knowledge Graphs via Infuser-Guided Knowledge Integration [58.61492157691623]
知識を統合する手法が開発され、外部モジュールを通してLLMをドメイン固有の知識グラフに拡張した。
本研究は,未知の知識をLLMに効率的に統合することで,未知の知識を不要に重複させるという,新たな問題に焦点をあてる。
新しい知識を導入するリスクは、既存の知識を忘れることである。
論文 参考訳(メタデータ) (2024-02-18T03:36:26Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。