論文の概要: EvoEdit: Lifelong Free-Text Knowledge Editing through Latent Perturbation Augmentation and Knowledge-driven Parameter Fusion
- arxiv url: http://arxiv.org/abs/2512.04545v1
- Date: Thu, 04 Dec 2025 07:55:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.057221
- Title: EvoEdit: Lifelong Free-Text Knowledge Editing through Latent Perturbation Augmentation and Knowledge-driven Parameter Fusion
- Title(参考訳): EvoEdit: 潜時摂動増強と知識駆動パラメータ融合による生涯自由テキスト知識編集
- Authors: Pengfei Cao, Zeao Ji, Daojian Zeng, Jun Zhao, Kang Liu,
- Abstract要約: LF-Edit(Lifelong Free-text Knowledge Editing)を提案する。
自然言語で表現された更新をモデルに組み込むことができ、時間の経過とともに連続的な編集をサポートする。
その約束にもかかわらず、LF-Editは、以前の情報の忘れを軽減しつつ、新しい知識を統合するという2つの課題に直面している。
- 参考スコア(独自算出の注目度): 31.09201415423854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adjusting the outdated knowledge of large language models (LLMs) after deployment remains a major challenge. This difficulty has spurred the development of knowledge editing, which seeks to accurately and efficiently modify a model's internal (parametric) knowledge without retraining it from scratch. However, existing methods suffer from two limitations. First, they depend on structured triplets that are misaligned with the free-text nature of LLM pretraining and fail to capture the nuanced relationships among facts. Second, they typically support one-time knowledge updates, with relatively limited research on the problem of sequential or lifelong editing. To address these gaps, we propose a new task, Lifelong Free-text Knowledge Editing (LF-Edit), which enables models to incorporate updates expressed in natural language and supports continual editing over time. Despite its promise, LF-Edit faces the dual challenge of integrating new knowledge while mitigating the forgetting of prior information. To foster research on this new task, we construct a large-scale benchmark, Multi-Rank Lifelong Free-text Editing Benchmark (MRLF-Bench), containing 16,835 free-text edit requests. We further design a cognitively inspired multi-rank evaluation framework encompassing four levels: memorization, understanding, constrained comprehension, and reasoning. To tackle the challenges inherent in LF-Edit, we introduce a novel approach named EvoEdit that enhances knowledge injection through Latent Perturbation Augmentation and preserves prior information via Knowledge-driven Parameter Fusion. Experimental results demonstrate that EvoEdit substantially outperforms existing knowledge editing methods on the proposed LF-Edit task.
- Abstract(参考訳): デプロイ後の大規模言語モデル(LLM)の古い知識を調整することは、依然として大きな課題である。
この難しさは、モデルの内部(パラメトリック)知識をスクラッチから再訓練することなく正確かつ効率的に修正しようとする知識編集の開発を刺激した。
しかし、既存の方法には2つの制限がある。
まず、LLM事前学習の自由テキストの性質と一致せず、事実間のニュアンスな関係を捉えるのに失敗する構造的な三つ子に依存している。
第2に、通常はワンタイムの知識更新をサポートし、シーケンシャルな編集や生涯にわたる編集の問題を比較的限定的に研究している。
これらのギャップに対処するために、自然言語で表現された更新をモデルに組み込むことができ、時間とともに連続的な編集をサポートする新しいタスク、Lifelong Free-text Knowledge Editing (LF-Edit)を提案する。
その約束にもかかわらず、LF-Editは、以前の情報の忘れを軽減しつつ、新しい知識を統合するという2つの課題に直面している。
このタスクの研究を促進するために,16,835のフリーテキスト編集要求を含む大規模ベンチマークであるMulti-Rank Lifelong Free-text Editing Benchmark(MRLF-Bench)を構築した。
さらに、記憶、理解、制約された理解、推論の4つのレベルを含む認知にインスパイアされたマルチランク評価フレームワークを設計する。
LF-Editに固有の課題に対処するため,Latent Perturbation Augmentationによる知識注入を強化し,知識駆動型パラメータフュージョンによる事前情報を保存するEvoEditという新しいアプローチを導入する。
実験の結果,提案したLF-Editタスクにおいて,既存の知識編集手法よりもかなり優れていた。
関連論文リスト
- EvoEdit: Evolving Null-space Alignment for Robust and Efficient Knowledge Editing [19.834477925624658]
大規模言語モデル(LLM)は、時代遅れまたは誤った知識を正すために継続的な更新を必要とする。
既存のアプローチは主に位置対応のフレームワークに基づいている。
本稿では,連続的なヌル空間アライメントによる破滅的干渉を緩和する新しい編集戦略であるEvoEditを紹介する。
論文 参考訳(メタデータ) (2025-10-11T21:36:14Z) - WikiBigEdit: Understanding the Limits of Lifelong Knowledge Editing in LLMs [66.51203413345773]
我々は、生涯にわたる知識編集の研究を現実の編集に事実上の規模で橋渡しする。
まず,実世界のウィキデータ編集の大規模ベンチマークであるWikiBigEditを紹介した。
最初の例では、知識編集のための500万以上の質問応答ペアが含まれている。
論文 参考訳(メタデータ) (2025-03-07T18:45:42Z) - AnyEdit: Edit Any Knowledge Encoded in Language Models [76.28789588247659]
大規模言語モデル(LLM)のための新しい自動回帰編集パラダイムであるAnyEditを提案する。
長い形式の知識を逐次チャンクに分解し、各チャンク内のキートークンを反復的に編集し、一貫性と正確な出力を保証する。
UnKEBench、AKEW、そして我々の長文の多様な知識のための新しいEditEverythingデータセットを含むベンチマークでは、強いベースラインを21.5%上回っている。
論文 参考訳(メタデータ) (2025-02-08T16:18:37Z) - Knowledge Editing through Chain-of-Thought [31.230769348268282]
インコンテキスト編集(In-context editing)は、世界知識を維持するために、大きな言語モデル(LLM)を新しい情報で更新する技法である。
その可能性にもかかわらず、既存のコンテキスト内知識編集手法はしばしばタスク固有である。
本研究では,リトレーニングを伴わずに,様々なタスクにまたがるLSMを柔軟かつ効率的に更新する新しい知識編集フレームワークEditCoTを提案する。
論文 参考訳(メタデータ) (2024-12-23T17:17:50Z) - StruEdit: Structured Outputs Enable the Fast and Accurate Knowledge Editing for Large Language Models [41.45831411548188]
StruEditは、他の知識編集方法と比較して、レイテンシの低い最高の精度を提供する。
結果,StruEditは,他の知識編集手法と比較して,低レイテンシで常に高い精度を提供することがわかった。
論文 参考訳(メタデータ) (2024-09-16T09:48:56Z) - Learning to Edit: Aligning LLMs with Knowledge Editing [101.96620267293731]
本稿では,大規模言語モデルに新たな知識を入力問題に適用する学習 to LTE(Learning to Edit)フレームワークを提案する。
LTEには2段階のプロセスがある: (i) アライメントフェーズ(アライメントフェーズ)。
LTEの知識編集性能の優位性、バッチおよびシーケンシャルな編集の堅牢性、一般的なタスクに対する最小限の干渉、高速な編集速度を示す。
論文 参考訳(メタデータ) (2024-02-19T07:45:17Z) - EVEDIT: Event-based Knowledge Editing with Deductive Editing Boundaries [69.72012539060731]
大規模言語モデル(LLM)における効率的な知識編集(KE)の理論的枠組みを導入する。
本稿では,事象をイベント記述と組み合わせたイベントベースの知識編集タスクを提案する。
編集モデルにおける不確実性を解消するための既存の設定よりもイベントベースの編集の方が優れていることを実証的に示す。
論文 参考訳(メタデータ) (2024-02-17T16:34:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。