論文の概要: Navigating the Dual Facets: A Comprehensive Evaluation of Sequential
Memory Editing in Large Language Models
- arxiv url: http://arxiv.org/abs/2402.11122v1
- Date: Fri, 16 Feb 2024 23:08:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 23:10:51.362299
- Title: Navigating the Dual Facets: A Comprehensive Evaluation of Sequential
Memory Editing in Large Language Models
- Title(参考訳): dual facetsのナビゲート:大規模言語モデルにおけるシーケンシャルメモリ編集の包括的評価
- Authors: Zihao Lin, Mohammad Beigi, Hongxuan Li, Yufan Zhou, Yuxiang Zhang,
Qifan Wang, Wenpeng Yin, Lifu Huang
- Abstract要約: 主要なMEメソッドは、パラメータ修飾MEとパラメータ保存MEの2つがある。
本研究は,大規模言語モデル(LLM)の逐次的編集において,MEが広範囲の基本的な機能にどのように影響するかを考察する。
- 参考スコア(独自算出の注目度): 37.91572705169647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Memory Editing (ME) has emerged as an efficient method to modify erroneous
facts or inject new facts into Large Language Models (LLMs). Two mainstream ME
methods exist: parameter-modifying ME and parameter-preserving ME (integrating
extra modules while preserving original parameters). Regrettably, previous
studies on ME evaluation have two critical limitations: (i) evaluating LLMs
with single edit only, neglecting the need for continuous editing, and (ii)
evaluations focusing solely on basic factual triples, overlooking broader LLM
capabilities like logical reasoning and reading understanding. This study
addresses these limitations with contributions threefold: (i) We explore how ME
affects a wide range of fundamental capabilities of LLMs under sequential
editing. Experimental results reveal an intriguing phenomenon: Most
parameter-modifying ME consistently degrade performance across all tasks after
a few sequential edits. In contrast, parameter-preserving ME effectively
maintains LLMs' fundamental capabilities but struggles to accurately recall
edited knowledge presented in a different format. (ii) We extend our evaluation
to different editing settings, such as layers to edit, model size, instruction
tuning, etc. Experimental findings indicate several strategies that can
potentially mitigate the adverse effects of ME. (iii) We further explain why
parameter-modifying ME damages LLMs from three dimensions: parameter changes
after editing, language modeling capability, and the in-context learning
capability. Our in-depth study advocates more careful use of ME in real-world
scenarios.
- Abstract(参考訳): メモリ編集(me)は誤った事実を修正したり、新しい事実を大規模言語モデル(llm)に注入する効率的な方法として登場した。
パラメータ修飾 me とパラメータ保存 me (元のパラメータを保持しながら余分なモジュールを統合する) である。
ME評価に関するこれまでの研究には2つの限界がある。
(i)単一編集のみによるllmの評価、連続編集の必要性の無視、及び
(II) 論理的推論や読解といった LLM の幅広い能力を見越して, 基本的事実三重項にのみ焦点をあてた評価。
本研究は、これらの制限を3倍の貢献で解決する。
i) シーケンシャル編集において, ME が LLM の基本機能にどのように影響するかを検討する。
パラメータ修飾のほとんどは、シーケンシャルな編集の後、すべてのタスクで一貫してパフォーマンスを低下させます。
対照的に、パラメータ保存MEはLLMの基本能力を効果的に維持するが、異なるフォーマットで提示された編集された知識を正確に思い出すのに苦労する。
(ii)我々は、編集するレイヤ、モデルサイズ、命令のチューニングなど、さまざまな編集設定に評価を拡張します。
実験の結果、私の悪影響を軽減できるいくつかの戦略が示された。
(iii)パラメータ修飾meがllmを3次元から損なう理由についてさらに説明する。編集後のパラメータ変化、言語モデリング機能、文脈内学習機能。
私たちの詳細な研究は、現実のシナリオにおけるMEのより慎重な利用を提唱しています。
関連論文リスト
- WISE: Rethinking the Knowledge Memory for Lifelong Model Editing of Large Language Models [78.22291694903659]
大規模言語モデル(LLM)は、成長を続ける世界の事実に適合し、幻覚的応答を修正するために知識更新を必要とする。
更新された知識が記憶にどこに存在するかは、モデル編集の基本的な問題である。
記憶のギャップを埋めるためにWISEを提案する。
論文 参考訳(メタデータ) (2024-05-23T16:35:52Z) - MemLLM: Finetuning LLMs to Use An Explicit Read-Write Memory [49.96019697955383]
本稿では,構造化および明示的な読み書きメモリモジュールを統合することで,知識能力を向上させる新しい手法であるMemLLMを紹介する。
実験の結果,MemLLMは言語モデリング全般,特に言語モデルにおいて,性能と解釈可能性を向上させることが示唆された。
私たちは MemLLM を,メモリ拡張による LLM の基盤化と現実化に向けた重要なステップと捉えています。
論文 参考訳(メタデータ) (2024-04-17T18:13:16Z) - Learning to Edit: Aligning LLMs with Knowledge Editing [101.96620267293731]
本稿では,大規模言語モデルに新たな知識を入力問題に適用する学習 to LTE(Learning to Edit)フレームワークを提案する。
LTEには2段階のプロセスがある: (i) アライメントフェーズ(アライメントフェーズ)。
LTEの知識編集性能の優位性、バッチおよびシーケンシャルな編集の堅牢性、一般的なタスクに対する最小限の干渉、高速な編集速度を示す。
論文 参考訳(メタデータ) (2024-02-19T07:45:17Z) - The Butterfly Effect of Model Editing: Few Edits Can Trigger Large Language Models Collapse [58.0132400208411]
単一の編集でさえモデル崩壊を引き起こし、様々なベンチマークタスクで大幅なパフォーマンス低下を示す。
編集後の大規模言語モデルのベンチマークは、過激な時間とリソース集約である。
我々は、GPT-3.5を用いて、ハードケースに基づいた新しいデータセット、HardEditを開発した。
論文 参考訳(メタデータ) (2024-02-15T01:50:38Z) - On the Robustness of Editing Large Language Models [57.477943944826904]
大型言語モデル(LLM)はコミュニケーションAIの構築において重要な役割を担っているが、効率的な更新の課題に直面している。
この研究は、編集方法の長所と短所を理解し、コミュニケーション型AIの実践的応用を促進することを目的としている。
論文 参考訳(メタデータ) (2024-02-08T17:06:45Z) - Emptying the Ocean with a Spoon: Should We Edit Models? [8.545919917068273]
LLM世代における事実誤りを訂正する手段として,最近普及した直接モデル編集手法を疑問視する。
モデル編集は、より明確な目的を追求する3つの類似しているが異なるアプローチと対比する。
論文 参考訳(メタデータ) (2023-10-18T13:38:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。