論文の概要: Beyond Local Edits: Embedding-Virtualized Knowledge for Broader Evaluation and Preservation of Model Editing
- arxiv url: http://arxiv.org/abs/2602.01977v1
- Date: Mon, 02 Feb 2026 11:33:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.108479
- Title: Beyond Local Edits: Embedding-Virtualized Knowledge for Broader Evaluation and Preservation of Model Editing
- Title(参考訳): ローカル編集を超えて: モデル編集のより広い評価と保存のための埋め込み仮想化知識
- Authors: Shuainan Liu, Xuanang Chen, Ben He, Le Sun,
- Abstract要約: 本稿では,埋め込み空間における制御摂動を通してモデル知識を特徴付ける埋め込み仮想知識(EVK)を紹介する。
EVKに基づく埋め込みレベルの評価ベンチマークEVK-Benchを構築し、編集によって誘発される潜在的な知識のドリフトを定量化する。
本稿では,編集中に埋め込みレベルの知識ドリフトを制限し,既存の編集手法にシームレスに統合可能なEVK-Alignモジュールを提案する。
- 参考スコア(独自算出の注目度): 35.30701128182046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge editing methods for large language models are commonly evaluated using predefined benchmarks that assess edited facts together with a limited set of related or neighboring knowledge. While effective, such evaluations remain confined to finite, dataset-bounded samples, leaving the broader impact of editing on the model's knowledge system insufficiently understood. To address this gap, we introduce Embedding-Virtualized Knowledge (EVK) that characterizes model knowledge through controlled perturbations in embedding space, enabling the exploration of a substantially broader and virtualized knowledge region beyond explicit data annotations. Based on EVK, we construct an embedding-level evaluation benchmark EVK-Bench that quantifies potential knowledge drift induced by editing, revealing effects that are not captured by conventional sample-based metrics. Furthermore, we propose a plug-and-play EVK-Align module that constrains embedding-level knowledge drift during editing and can be seamlessly integrated into existing editing methods. Experiments demonstrate that our approach enables more comprehensive evaluation while significantly improving knowledge preservation without sacrificing editing accuracy.
- Abstract(参考訳): 大規模言語モデルの知識編集手法は、関連する知識や近隣の知識の限られたセットとともに、編集された事実を評価する事前定義されたベンチマークを用いて一般的に評価される。
効果はあるものの、そのような評価は有限でデータセット境界のサンプルに限られており、モデルの知識システムに対する編集の影響は十分に理解されていないままである。
このギャップに対処するために、埋め込み空間における制御された摂動を通してモデル知識を特徴付けるEmbeding-Virtualized Knowledge (EVK)を導入し、明示的なデータアノテーションを超えて、より広く仮想化された知識領域を探索することを可能にする。
EVKをベースとしたEVK-Benchの組込みレベル評価ベンチマークを構築し,編集によって誘発される潜在的な知識ドリフトを定量化し,従来のサンプルベースメトリクスでは捉えられない効果を明らかにする。
さらに,既存の編集手法にシームレスに統合可能な,組込みレベルの知識ドリフトを制限したEVK-Alignモジュールを提案する。
提案手法は,編集精度を犠牲にすることなく,知識保存の大幅な向上を図りながら,より包括的な評価を可能にすることを示す。
関連論文リスト
- Are We Evaluating the Edit Locality of LLM Model Editing Properly? [68.441768731381]
この目的のために既存の特異性評価プロトコルは不十分であることがわかった。
既存の特異度指標は特異度正規化器の強度と弱い相関関係にある。
また、現在のメトリクスには十分な感度が欠けており、異なるメソッドの特異性性能の区別に効果がないこともわかりました。
論文 参考訳(メタデータ) (2026-01-24T07:07:21Z) - Retention analysis of edited knowledge after fine-tuning [5.1877231178075425]
大規模な言語モデル(LLM)には膨大な量の知識が格納されており、事実の誤りを訂正したり、新たに取得した情報を組み込んだり、モデルの振る舞いを適応させたりする必要があることが多い。
モデル編集手法はこのような更新の効率的な解法として登場し、局所的で正確な知識修正を連続的な訓練よりも大幅に少ない計算コストで提供する。
しかし、これまで編集された知識に対する微調整の効果はよく分かっていない。
論文 参考訳(メタデータ) (2025-07-14T15:51:19Z) - ThinkEval: Practical Evaluation of Knowledge Leakage in LLM Editing using Thought-based Knowledge Graphs [3.9295613363026174]
モデル編集における間接的知識漏洩とリップル効果を定量化するフレームワークであるThinkEvalを提案する。
ThinkEvalは、編集前後の事実の因果構造を分析するために、専門知識グラフを構築し、採用する。
我々はAlphaEdit, RECT, ROME, MEMIT, PRUNEの5つの編集技術を評価する。
論文 参考訳(メタデータ) (2025-06-02T07:24:12Z) - Editing the Mind of Giants: An In-Depth Exploration of Pitfalls of Knowledge Editing in Large Language Models [26.516571783335824]
近年の研究では、知識の歪みや一般的な能力の劣化など、編集後に現れた副作用が特定されている。
本調査では,これらの側面を包括的に研究し,大規模言語モデルにおける知識編集の課題を統一的に考察する。
論文 参考訳(メタデータ) (2024-06-03T15:28:21Z) - Propagation and Pitfalls: Reasoning-based Assessment of Knowledge
Editing through Counterfactual Tasks [36.292901021210575]
ReCoE(Reasoning-based Counterfactual Editing dataset)という新しい推論ベースのベンチマークを導入する。
我々は既存の知識編集技術を徹底的に分析し、入力強化、微調整、位置と編集を行う。
全てのモデル編集手法は、特に特定の推論スキームにおいて、このデータセットで顕著に低い性能を示す。
論文 参考訳(メタデータ) (2024-01-31T04:12:59Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。