論文の概要: SetKE: Knowledge Editing for Knowledge Elements Overlap
- arxiv url: http://arxiv.org/abs/2504.20972v1
- Date: Tue, 29 Apr 2025 17:40:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.022724
- Title: SetKE: Knowledge Editing for Knowledge Elements Overlap
- Title(参考訳): SetKE: 知識要素のオーバーラップのための知識編集
- Authors: Yifan Wei, Xiaoyan Yu, Ran Song, Hao Peng, Angsheng Li,
- Abstract要約: LLM(Large Language Models)は、検索や質問応答といったタスクに優れるが、新しい知識を取り入れ、不正確さや幻覚を減らすために更新が必要である。
知識編集(KE)は有望な代替手段を提供するが、複数の三つ組が共通の要素を共有する知識要素オーバーラップ(KEO)現象を見落とし、矛盾を編集する。
そこで我々は,新しい定式化,知識集合編集(KSE)を提案し,同時に三つ組の集合を編集するSetKEを紹介する。
- 参考スコア(独自算出の注目度): 25.72267270228574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) excel in tasks such as retrieval and question answering but require updates to incorporate new knowledge and reduce inaccuracies and hallucinations. Traditional updating methods, like fine-tuning and incremental learning, face challenges such as overfitting and high computational costs. Knowledge Editing (KE) provides a promising alternative but often overlooks the Knowledge Element Overlap (KEO) phenomenon, where multiple triplets share common elements, leading to editing conflicts. We identify the prevalence of KEO in existing KE datasets and show its significant impact on current KE methods, causing performance degradation in handling such triplets. To address this, we propose a new formulation, Knowledge Set Editing (KSE), and introduce SetKE, a method that edits sets of triplets simultaneously. Experimental results demonstrate that SetKE outperforms existing methods in KEO scenarios on mainstream LLMs. Additionally, we introduce EditSet, a dataset containing KEO triplets, providing a comprehensive benchmark.
- Abstract(参考訳): LLM(Large Language Models)は、検索や質問応答などのタスクに優れるが、新しい知識を取り入れ、不正確さや幻覚を減らすために更新が必要である。
微調整や漸進的な学習といった従来の更新方法は、過度な適合や高い計算コストといった課題に直面している。
知識編集(KE)は有望な代替手段を提供するが、複数の三つ組が共通の要素を共有する知識要素オーバーラップ(KEO)現象を見落とし、矛盾を編集する。
既存のKEデータセットにおけるKEOの頻度を特定し、現在のKE手法に大きな影響を与えることを示す。
そこで我々は,新しい定式化KSE(Knowledge Set Editing)を提案し,同時に三重項の集合を編集するSetKEを紹介する。
実験結果から,SetKEはKEOシナリオの既存手法よりも高い性能を示した。
さらに、KEO三重項を含むデータセットであるEditSetを導入し、包括的なベンチマークを提供する。
関連論文リスト
- CaKE: Circuit-aware Editing Enables Generalizable Knowledge Learners [88.35958039968081]
CaKE(Circuit-aware Knowledge Editing)は、大規模言語モデルにおける知識のより効果的な統合を可能にする新しい手法である。
その結果,CaKEは関連する推論タスクに対して,より正確で一貫した知識の活用を可能にすることがわかった。
論文 参考訳(メタデータ) (2025-03-20T17:14:34Z) - Related Knowledge Perturbation Matters: Rethinking Multiple Pieces of Knowledge Editing in Same-Subject [49.559994791305535]
現在最先端の編集手法は、複数の関連知識を同じ主題に編集する作業で苦労している。
本稿では,textS2textRKE$(Same-Subject Related Knowledge Editing)ベンチマークを紹介する。
実験の結果,ROMやMEMITのような主流の位置情報編集手法だけが「関連する知識の摂動」を示すことがわかった。
論文 参考訳(メタデータ) (2025-02-08T04:47:17Z) - Knowledge Editing through Chain-of-Thought [12.270274049887298]
大規模言語モデル(LLM)は、幅広い自然言語処理(NLP)タスクにまたがる例外的な機能を示している。
これらのモデルを世界知識の進化とともに最新に保つことは、頻繁な再トレーニングのコストが高いため、依然として大きな課題である。
本研究では,リトレーニングを伴わずに,様々なタスクにまたがるLSMを柔軟かつ効率的に更新する新しい知識編集フレームワークEditCoTを提案する。
論文 参考訳(メタデータ) (2024-12-23T17:17:50Z) - CollabEdit: Towards Non-destructive Collaborative Knowledge Editing [23.013415033531974]
この写本は、共同知識編集の第1回研究に掘り下げられている。
知識の重複、知識の衝突、知識の忘れという3つの課題を特定します。
グローバルなKE動作を模倣する新しいモデルマージ機構を用いた非破壊的協調型KEフレームワークであるCOLLABEDITを提案する。
論文 参考訳(メタデータ) (2024-10-12T12:10:14Z) - Cross-Lingual Multi-Hop Knowledge Editing [53.028586843468915]
言語横断的な設定で様々なSoTA知識編集技術の性能を計測・解析するための多言語多言語知識編集パラダイムを提案する。
具体的には、知識編集能力を測定するために並列言語間ベンチマーク CROLIN-MQUAKE を作成します。
次に,言語間マルチホップ知識編集システムであるCLEVER-CKEを提案する。
論文 参考訳(メタデータ) (2024-07-14T17:18:16Z) - Everything is Editable: Extend Knowledge Editing to Unstructured Data in Large Language Models [65.10456412127405]
本稿では,非構造化知識編集手法,すなわちUnKEを提案する。
そこで本研究では,非局所ブロック鍵値記憶方式を提案する。
トークンのディメンションでは、コンテキストを保存しながら最後のトークンを直接編集する"期間駆動最適化"を"原因駆動最適化"に置き換えます。
論文 参考訳(メタデータ) (2024-05-24T08:42:40Z) - Event-level Knowledge Editing [53.767465515537545]
既存の作業は、事実知識三重項のレベルで大きな言語モデル(LLM)を編集する。
イベントレベルの知識編集という新しいタスク設定を提案し,新しいイベントを直接LLMに編集する。
我々は,1,515件のイベント編集,6,449件の事実知識に関する質問,および10,150件の今後の傾向に関する質問からなる,高品質なイベントレベル編集ベンチマークELKENを構築した。
論文 参考訳(メタデータ) (2024-02-20T15:36:41Z) - EVEDIT: Event-based Knowledge Editing with Deductive Editing Boundaries [69.72012539060731]
大規模言語モデル(LLM)における効率的な知識編集(KE)の理論的枠組みを導入する。
本稿では,事象をイベント記述と組み合わせたイベントベースの知識編集タスクを提案する。
編集モデルにおける不確実性を解消するための既存の設定よりもイベントベースの編集の方が優れていることを実証的に示す。
論文 参考訳(メタデータ) (2024-02-17T16:34:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。