論文の概要: MemEIC: A Step Toward Continual and Compositional Knowledge Editing
- arxiv url: http://arxiv.org/abs/2510.25798v1
- Date: Wed, 29 Oct 2025 03:11:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.493159
- Title: MemEIC: A Step Toward Continual and Compositional Knowledge Editing
- Title(参考訳): MemEIC: 継続的および構成的知識編集へのステップ
- Authors: Jin Seong, Jiyun Park, Wencke Liermann, Hongseok Choi, Yoonji Nam, Hyun Kim, Soojong Lim, Namhoon Lee,
- Abstract要約: MemEICは大規模視覚言語モデル(LVLM)における連続的・構成的知識編集(CCKE)の新しい手法である
提案手法では, クロスモーダルエビデンス検索のための2つの外部メモリと, 各モーダルに対する不整合パラメータ更新を容易にする2つのLoRAアダプタを備えたハイブリッドな外部内部エディタを用いる。
実験により、MemEICは複雑なマルチモーダル質問の性能を大幅に改善し、事前編集を効果的に保存し、LVLMにおけるCCKEのベンチマークを新たに設定した。
- 参考スコア(独自算出の注目度): 9.69818358591048
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The dynamic nature of information necessitates continuously updating large vision-language models (LVLMs). While recent knowledge editing techniques hint at promising directions, they often focus on editing a single modality (vision or language) in isolation. This prevalent practice neglects the inherent multimodality of LVLMs and the continuous nature of knowledge updates, potentially leading to suboptimal editing outcomes when considering the interplay between modalities and the need for ongoing knowledge refinement. To address these limitations, we propose MemEIC, a novel method for Continual and Compositional Knowledge Editing (CCKE) in LVLMs. MemEIC enables compositional editing of both visual and textual knowledge sequentially. Our approach employs a hybrid external-internal editor featuring a dual external memory for cross-modal evidence retrieval and dual LoRA adapters that facilitate disentangled parameter updates for each modality. A key component is a brain-inspired knowledge connector, activated selectively for compositional reasoning, that integrates information across different modalities. Experiments demonstrate that MemEIC significantly improves performance on complex multimodal questions and effectively preserves prior edits, setting a new benchmark for CCKE in LVLMs.
- Abstract(参考訳): 情報の動的な性質は、大きな視覚言語モデル(LVLM)を継続的に更新する必要がある。
最近の知識編集技術は有望な方向を示唆するが、しばしば単一のモダリティ(ビジョンや言語)を単独で編集することに集中する。
この慣行は、LVLMの本質的なマルチモーダル性や知識更新の継続的な性質を無視し、モダリティ間の相互作用と継続的な知識改善の必要性を考慮する際に、最適以下の編集結果をもたらす可能性がある。
これらの制約に対処するため,LVLMにおける連続的・構成的知識編集(CCKE)の新しい手法であるMemEICを提案する。
MemEICは視覚的知識とテキスト的知識の両方を逐次編集できる。
提案手法では, クロスモーダルエビデンス検索のための2つの外部メモリと, 各モーダルに対する不整合パラメータ更新を容易にする2つのLoRAアダプタを備えたハイブリッドな外部内部エディタを用いる。
鍵となるコンポーネントは脳にインスパイアされた知識コネクタで、構成的推論のために選択的に活性化され、様々なモダリティにまたがる情報を統合する。
実験により、MemEICは複雑なマルチモーダル質問の性能を大幅に改善し、事前編集を効果的に保存し、LVLMにおけるCCKEのベンチマークを新たに設定した。
関連論文リスト
- Disentangling Knowledge Representations for Large Language Model Editing [38.244171146682206]
我々は,LLM編集のための知識表現を分割する新しいアプローチであるDiKEを提案する。
DiKEは2つの主要なコンポーネントから構成される: 対象表現を対象知識関連および非関連コンポーネントに分解する知識表現(KRD)モジュールと、対象コンポーネントのみを更新する知識編集(DKE)モジュールである。
本研究では, 微粒な無関係知識の保存を厳密に評価するため, FINE-KEDという, 微粒な無関係知識を, 編集された知識と異なるレベルの類似度で構成した新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2025-05-24T16:24:04Z) - Towards Unified Multimodal Editing with Enhanced Knowledge Collaboration [107.31481207855835]
内在的知識の編集や外部知識の活用といった現在の手法は、それぞれに長所と短所がある。
固有知識編集と外部知識を活用した統一的な視点を確立するための,新しいマルチモーダル編集手法UniKEを提案する。
論文 参考訳(メタデータ) (2024-09-30T02:13:53Z) - Learning to Edit: Aligning LLMs with Knowledge Editing [101.96620267293731]
本稿では,大規模言語モデルに新たな知識を入力問題に適用する学習 to LTE(Learning to Edit)フレームワークを提案する。
LTEには2段階のプロセスがある: (i) アライメントフェーズ(アライメントフェーズ)。
LTEの知識編集性能の優位性、バッチおよびシーケンシャルな編集の堅牢性、一般的なタスクに対する最小限の干渉、高速な編集速度を示す。
論文 参考訳(メタデータ) (2024-02-19T07:45:17Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。