論文の概要: MemEIC: A Step Toward Continual and Compositional Knowledge Editing
- arxiv url: http://arxiv.org/abs/2510.25798v1
- Date: Wed, 29 Oct 2025 03:11:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.493159
- Title: MemEIC: A Step Toward Continual and Compositional Knowledge Editing
- Title(参考訳): MemEIC: 継続的および構成的知識編集へのステップ
- Authors: Jin Seong, Jiyun Park, Wencke Liermann, Hongseok Choi, Yoonji Nam, Hyun Kim, Soojong Lim, Namhoon Lee,
- Abstract要約: MemEICは大規模視覚言語モデル(LVLM)における連続的・構成的知識編集(CCKE)の新しい手法である
提案手法では, クロスモーダルエビデンス検索のための2つの外部メモリと, 各モーダルに対する不整合パラメータ更新を容易にする2つのLoRAアダプタを備えたハイブリッドな外部内部エディタを用いる。
実験により、MemEICは複雑なマルチモーダル質問の性能を大幅に改善し、事前編集を効果的に保存し、LVLMにおけるCCKEのベンチマークを新たに設定した。
- 参考スコア(独自算出の注目度): 9.69818358591048
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The dynamic nature of information necessitates continuously updating large vision-language models (LVLMs). While recent knowledge editing techniques hint at promising directions, they often focus on editing a single modality (vision or language) in isolation. This prevalent practice neglects the inherent multimodality of LVLMs and the continuous nature of knowledge updates, potentially leading to suboptimal editing outcomes when considering the interplay between modalities and the need for ongoing knowledge refinement. To address these limitations, we propose MemEIC, a novel method for Continual and Compositional Knowledge Editing (CCKE) in LVLMs. MemEIC enables compositional editing of both visual and textual knowledge sequentially. Our approach employs a hybrid external-internal editor featuring a dual external memory for cross-modal evidence retrieval and dual LoRA adapters that facilitate disentangled parameter updates for each modality. A key component is a brain-inspired knowledge connector, activated selectively for compositional reasoning, that integrates information across different modalities. Experiments demonstrate that MemEIC significantly improves performance on complex multimodal questions and effectively preserves prior edits, setting a new benchmark for CCKE in LVLMs.
- Abstract(参考訳): 情報の動的な性質は、大きな視覚言語モデル(LVLM)を継続的に更新する必要がある。
最近の知識編集技術は有望な方向を示唆するが、しばしば単一のモダリティ(ビジョンや言語)を単独で編集することに集中する。
この慣行は、LVLMの本質的なマルチモーダル性や知識更新の継続的な性質を無視し、モダリティ間の相互作用と継続的な知識改善の必要性を考慮する際に、最適以下の編集結果をもたらす可能性がある。
これらの制約に対処するため,LVLMにおける連続的・構成的知識編集(CCKE)の新しい手法であるMemEICを提案する。
MemEICは視覚的知識とテキスト的知識の両方を逐次編集できる。
提案手法では, クロスモーダルエビデンス検索のための2つの外部メモリと, 各モーダルに対する不整合パラメータ更新を容易にする2つのLoRAアダプタを備えたハイブリッドな外部内部エディタを用いる。
鍵となるコンポーネントは脳にインスパイアされた知識コネクタで、構成的推論のために選択的に活性化され、様々なモダリティにまたがる情報を統合する。
実験により、MemEICは複雑なマルチモーダル質問の性能を大幅に改善し、事前編集を効果的に保存し、LVLMにおけるCCKEのベンチマークを新たに設定した。
関連論文リスト
- Consistency-Aware Editing for Entity-level Unlearning in Language Models [53.522931419965424]
本稿では,エンティティレベルのアンラーニングのための新しい一貫性対応編集(CAE)フレームワークを提案する。
CAEは、その属性、関係、および敵のパラフレーズを含む、ターゲットエンティティに関連する多様なプロンプトの集合を集約する。
次に、一貫性レギュレータによってガイドされる低ランクの更新を共同で学習し、プロンプトをまたいだ編集方向を調整する。
論文 参考訳(メタデータ) (2025-12-19T15:18:07Z) - Towards Meta-Cognitive Knowledge Editing for Multimodal LLMs [71.8547241246169]
本稿では,MLLMのメタ認知的知識編集能力を評価するための新しいベンチマークであるCogEditを紹介する。
本稿では,自己認識のためのメタ知識メモリを構築するフレームワークであるMINDを提案する。
論文 参考訳(メタデータ) (2025-09-06T13:26:04Z) - Disentangling Knowledge Representations for Large Language Model Editing [38.244171146682206]
我々は,LLM編集のための知識表現を分割する新しいアプローチであるDiKEを提案する。
DiKEは2つの主要なコンポーネントから構成される: 対象表現を対象知識関連および非関連コンポーネントに分解する知識表現(KRD)モジュールと、対象コンポーネントのみを更新する知識編集(DKE)モジュールである。
本研究では, 微粒な無関係知識の保存を厳密に評価するため, FINE-KEDという, 微粒な無関係知識を, 編集された知識と異なるレベルの類似度で構成した新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2025-05-24T16:24:04Z) - MindBridge: Scalable and Cross-Model Knowledge Editing via Memory-Augmented Modality [55.01380617388064]
既存のほとんどのメソッドは特定のモデルに過度に適合し、更新毎に編集済みの知識を破棄する。
マルチモーダルモデルにおけるモダリティ処理とLLMの低結合に着想を得た,スケーラブルなソリューションであるMindBridgeを紹介する。
MindBridgeは数万の知識エントリを編集しても優れたパフォーマンスを実現し、異なるLLMに柔軟に対応できる。
論文 参考訳(メタデータ) (2025-03-04T15:17:57Z) - Visual-Oriented Fine-Grained Knowledge Editing for MultiModal Large Language Models [22.26930296101678]
既存の知識編集は、主にテキスト指向で粗いシナリオに焦点を当てている。
本稿では,複数の対話型エンティティを持つ画像の正確な編集をターゲットとした,視覚指向できめ細かなマルチモーダル知識編集タスクを提案する。
論文 参考訳(メタデータ) (2024-11-19T14:49:36Z) - Towards Unified Multimodal Editing with Enhanced Knowledge Collaboration [107.31481207855835]
内在的知識の編集や外部知識の活用といった現在の手法は、それぞれに長所と短所がある。
固有知識編集と外部知識を活用した統一的な視点を確立するための,新しいマルチモーダル編集手法UniKEを提案する。
論文 参考訳(メタデータ) (2024-09-30T02:13:53Z) - Lifelong Knowledge Editing for LLMs with Retrieval-Augmented Continuous Prompt Learning [30.554641380670315]
本稿では,生涯学習における編集効率と推論効率を向上させるために,ContInuous Prompt lEarning法であるRECIPEを紹介する。
RECIPEはまず、知識文をLLMの入力クエリの埋め込みにプレフィックスした、短くて情報的な連続的なプロンプトに変換する。
さらに、動的しきい値を計算するために仲介役として機能する知識センチネル(KS)を統合する。
我々のレトリバーとプロンプトエンコーダは、信頼性、一般性、局所性といった編集特性を達成するために共同で訓練されている。
論文 参考訳(メタデータ) (2024-05-06T08:52:11Z) - Learning to Edit: Aligning LLMs with Knowledge Editing [101.96620267293731]
本稿では,大規模言語モデルに新たな知識を入力問題に適用する学習 to LTE(Learning to Edit)フレームワークを提案する。
LTEには2段階のプロセスがある: (i) アライメントフェーズ(アライメントフェーズ)。
LTEの知識編集性能の優位性、バッチおよびシーケンシャルな編集の堅牢性、一般的なタスクに対する最小限の干渉、高速な編集速度を示す。
論文 参考訳(メタデータ) (2024-02-19T07:45:17Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。