論文の概要: MEMIT-Merge: Addressing MEMIT's Key-Value Conflicts in Same-Subject Batch Editing for LLMs
- arxiv url: http://arxiv.org/abs/2502.07322v2
- Date: Mon, 17 Feb 2025 02:42:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:15:28.604255
- Title: MEMIT-Merge: Addressing MEMIT's Key-Value Conflicts in Same-Subject Batch Editing for LLMs
- Title(参考訳): MEMIT-Merge:LLMの同一オブジェクトバッチ編集におけるMEMITのキーバリュー競合に対処する
- Authors: Zilu Dong, Xiangqing Shen, Rui Xia,
- Abstract要約: 同一主題を共有する複数の編集を含むバッチ処理において,MEMITの編集効率は著しく低下することを示した。
我々の分析によると、根本原因はMEMITのキーバリューモデリングフレームワークにある。
我々は、同じ主題を共有する事実に対して、価値プロセスをマージする強化されたアプローチであるMEMIT-Mergeを提案する。
- 参考スコア(独自算出の注目度): 25.658206998291917
- License:
- Abstract: As large language models continue to scale up, knowledge editing techniques that modify models' internal knowledge without full retraining have gained significant attention. MEMIT, a prominent batch editing algorithm, stands out for its capability to perform mass knowledge modifications. However, we uncover a critical limitation that MEMIT's editing efficacy significantly deteriorates when processing batches containing multiple edits sharing the same subject. Our analysis reveals that the root cause lies in MEMIT's key value modeling framework: When multiple facts with the same subject in a batch are modeled through MEMIT's key value mechanism, identical keys (derived from the shared subject) are forced to represent different values (corresponding to different knowledge), resulting in updates conflicts during editing. Addressing this issue, we propose MEMIT-Merge, an enhanced approach that merges value computation processes for facts sharing the same subject, effectively resolving the performance degradation in same-subject batch editing scenarios. Experimental results demonstrate that when MEMIT's edit success rate drops to around 50% at larger batch sizes, MEMIT-Merge maintains a success rate exceeding 90%, showcasing remarkable robustness to subject entity collisions.
- Abstract(参考訳): 大規模言語モデルのスケールアップが進むにつれて、モデルの内部知識を完全なリトレーニングなしで変更する知識編集技術が注目されている。
著名なバッチ編集アルゴリズムであるMEMITは、大量知識修正を行う能力で際立っている。
しかし,同じ主題を共有する複数の編集を含むバッチを処理する場合,MEMITの編集効率は著しく低下する。
バッチ内の同じ主題を持つ複数の事実がMEMITのキーバリューメカニズムによってモデル化された場合、同じキー(共有対象から派生した)は異なる値(異なる知識に対応する)を表現せざるを得ず、編集中に更新の矛盾が生じます。
この問題に対処するため、我々は、同じ主題を共有する事実に対して値計算プロセスをマージする拡張されたアプローチであるMEMIT-Mergeを提案し、同一オブジェクトのバッチ編集シナリオにおける性能劣化を効果的に解消する。
実験結果から,MEMITの編集成功率がより大きなバッチサイズで50%程度に低下すると,MEMIT-Mergeは90%を超える成功率を維持し,被写体衝突に対する顕著な堅牢性を示した。
関連論文リスト
- AnyEdit: Edit Any Knowledge Encoded in Language Models [69.30638272162267]
大規模言語モデル(LLM)のための新しい自動回帰編集パラダイムであるAnyEditを提案する。
長い形式の知識を逐次チャンクに分解し、各チャンク内のキートークンを反復的に編集し、一貫性と正確な出力を保証する。
UnKEBench、AKEW、そして我々の長文の多様な知識のための新しいEditEverythingデータセットを含むベンチマークでは、強いベースラインを21.5%上回っている。
論文 参考訳(メタデータ) (2025-02-08T16:18:37Z) - Related Knowledge Perturbation Matters: Rethinking Multiple Pieces of Knowledge Editing in Same-Subject [49.559994791305535]
現在最先端の編集手法は、複数の関連知識を同じ主題に編集する作業で苦労している。
本稿では,textS2textRKE$(Same-Subject Related Knowledge Editing)ベンチマークを紹介する。
実験の結果,ROMやMEMITのような主流の位置情報編集手法だけが「関連する知識の摂動」を示すことがわかった。
論文 参考訳(メタデータ) (2025-02-08T04:47:17Z) - ComprehendEdit: A Comprehensive Dataset and Evaluation Framework for Multimodal Knowledge Editing [27.034072044001736]
大規模マルチモーダル言語モデル(MLLM)は、自然言語処理と視覚的理解に革命をもたらした。
現在の知識編集評価はスコープが限られており、バイアスがある可能性がある。
複数のデータセットから8つのタスクからなる総合的なベンチマークであるComprehendEditを紹介する。
論文 参考訳(メタデータ) (2024-12-17T11:41:49Z) - ELDER: Enhancing Lifelong Model Editing with Mixture-of-LoRA [55.697627106315004]
大規模言語モデル(LLM)は、特定の知識を効率的に更新し、事実の誤りを避けるためにモデル編集を必要とする。
従来のアプローチでは、元のパラメータを凍結し、知識更新毎に新しいパラメータを個別に割り当てることで、シーケンシャルな編集を管理する。
本稿では,データとアダプタを連続的に関連付ける新しい手法であるELDERを提案する。
論文 参考訳(メタデータ) (2024-08-19T02:27:00Z) - A Unified Framework for Model Editing [2.569159339315845]
ROMEとMEMITは、主に2つの異なるモデル編集アルゴリズムであると信じられている。
我々はこの2つのアルゴリズムを一つの概念的な傘の下に統一し、同じ目標を最適化する。
両アルゴリズムは, 最適化目標, 能力, モデル編集性能, 限界の観点から等価であることを示す。
論文 参考訳(メタデータ) (2024-03-21T08:54:24Z) - Navigating the Dual Facets: A Comprehensive Evaluation of Sequential
Memory Editing in Large Language Models [37.91572705169647]
主要なMEメソッドは、パラメータ修飾MEとパラメータ保存MEの2つがある。
本研究は,大規模言語モデル(LLM)の逐次的編集において,MEが広範囲の基本的な機能にどのように影響するかを考察する。
論文 参考訳(メタデータ) (2024-02-16T23:08:55Z) - The Butterfly Effect of Model Editing: Few Edits Can Trigger Large Language Models Collapse [58.0132400208411]
単一の編集でさえモデル崩壊を引き起こし、様々なベンチマークタスクで大幅なパフォーマンス低下を示す。
編集後の大規模言語モデルのベンチマークは、過激な時間とリソース集約である。
我々は、GPT-3.5を用いて、ハードケースに基づいた新しいデータセット、HardEditを開発した。
論文 参考訳(メタデータ) (2024-02-15T01:50:38Z) - Model Editing Harms General Abilities of Large Language Models: Regularization to the Rescue [122.20016030723043]
大規模言語モデル(LLM)におけるモデル編集の副作用を評価する。
分析の結果,モデルの重みを過度に修正したモデル編集によって副作用が生じることが明らかとなった。
これを軽減するために、修正の重み付けを正規化するためにRECTというメソッドが提案されている。
論文 参考訳(メタデータ) (2024-01-09T18:03:15Z) - Memory-Based Model Editing at Scale [102.28475739907498]
既存のモデルエディタは、編集対象のスコープを正確にモデル化するのに苦労する。
SERAC(Retrieval-Augmented Counterfactal Model)を用いた半パラメトリック編集を提案する。
SERACは、編集を明示的なメモリに格納し、必要に応じてベースモデルの予測を変更できるように、それらを推論することを学ぶ。
論文 参考訳(メタデータ) (2022-06-13T23:40:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。