論文の概要: Towards Meta-Cognitive Knowledge Editing for Multimodal LLMs
- arxiv url: http://arxiv.org/abs/2509.05714v1
- Date: Sat, 06 Sep 2025 13:26:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.665157
- Title: Towards Meta-Cognitive Knowledge Editing for Multimodal LLMs
- Title(参考訳): マルチモーダルLLMのためのメタ認知的知識編集に向けて
- Authors: Zhaoyu Fan, Kaihang Pan, Mingze Zhou, Bosheng Qin, Juncheng Li, Shengyu Zhang, Wenqiao Zhang, Siliang Tang, Fei Wu, Yueting Zhuang,
- Abstract要約: 本稿では,MLLMのメタ認知的知識編集能力を評価するための新しいベンチマークであるCogEditを紹介する。
本稿では,自己認識のためのメタ知識メモリを構築するフレームワークであるMINDを提案する。
- 参考スコア(独自算出の注目度): 71.8547241246169
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge editing enables multimodal large language models (MLLMs) to efficiently update outdated or incorrect information. However, existing benchmarks primarily emphasize cognitive-level modifications while lacking a focus on deeper meta-cognitive processes. To bridge this gap, we introduce CogEdit, a novel benchmark designed to evaluate MLLMs' meta-cognitive knowledge editing abilities across three levels: (1) Counterfactual-Driven Editing, assessing self-awareness of knowledge correctness changes; (2) Boundary Constraint Editing, ensuring appropriate generalization without unintended interference; and (3) Noise-Robust Editing, promoting reflective evaluation of uncertain information. To advance meta-cognitive editing, we propose MIND (Meta-cognitive INtegrated Dynamic Knowledge Editing), a framework that constructs a meta-knowledge memory for self-awareness, employs game-theoretic interactions to monitor knowledge activation, and incorporates label refinement for noise-robust updates. Extensive experiments show that MIND significantly outperforms existing cognitive editing approaches, achieving strong performance on both traditional and meta-cognitive knowledge editing benchmarks.
- Abstract(参考訳): 知識編集により、マルチモーダルな大規模言語モデル(MLLM)は、時代遅れまたは誤った情報を効率的に更新することができる。
しかし、既存のベンチマークは主に認知レベルの修正に重点を置いているが、より深いメタ認知プロセスに重点を置いていない。
このギャップを埋めるために,我々は,MLLMのメタ認知的知識編集能力を評価するための新しいベンチマークであるCogEditを紹介した。(1)非現実的編集,知識の正しさの自己認識,(2)境界制約編集,意図しない干渉を伴わない適切な一般化の確保,(3)ノイズ・ロバスト編集,そして不確実な情報の反射的評価を促進する。
メタ認知的編集を促進するために,メタ認知型動的知識編集フレームワーク MIND を提案する。
大規模な実験により、MINDは既存の認知的編集アプローチを著しく上回り、従来の認知的知識編集ベンチマークとメタ認知的知識編集ベンチマークの両方で高いパフォーマンスを達成している。
関連論文リスト
- Disentangling Knowledge Representations for Large Language Model Editing [38.244171146682206]
我々は,LLM編集のための知識表現を分割する新しいアプローチであるDiKEを提案する。
DiKEは2つの主要なコンポーネントから構成される: 対象表現を対象知識関連および非関連コンポーネントに分解する知識表現(KRD)モジュールと、対象コンポーネントのみを更新する知識編集(DKE)モジュールである。
本研究では, 微粒な無関係知識の保存を厳密に評価するため, FINE-KEDという, 微粒な無関係知識を, 編集された知識と異なるレベルの類似度で構成した新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2025-05-24T16:24:04Z) - ConKE: Conceptualization-Augmented Knowledge Editing in Large Language Models for Commonsense Reasoning [47.98788315789392]
ConceptEditは、概念化とインスタンス化をKnowledge Editingパイプラインに統合するフレームワークである。
その結果,コンセプション編集は,他のベースラインに比べて信頼性が向上し,コモンセンスの知識を生み出すことができた。
論文 参考訳(メタデータ) (2024-12-16T03:34:40Z) - Towards Unified Multimodal Editing with Enhanced Knowledge Collaboration [107.31481207855835]
内在的知識の編集や外部知識の活用といった現在の手法は、それぞれに長所と短所がある。
固有知識編集と外部知識を活用した統一的な視点を確立するための,新しいマルチモーダル編集手法UniKEを提案する。
論文 参考訳(メタデータ) (2024-09-30T02:13:53Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。