論文の概要: A Dual-Axis Taxonomy of Knowledge Editing for LLMs: From Mechanisms to Functions
- arxiv url: http://arxiv.org/abs/2508.08795v1
- Date: Tue, 12 Aug 2025 09:51:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.373406
- Title: A Dual-Axis Taxonomy of Knowledge Editing for LLMs: From Mechanisms to Functions
- Title(参考訳): LLMのための知識編集の2軸分類法:メカニズムから機能へ
- Authors: Amir Mohammad Salehoof, Ali Ramezani, Yadollah Yaghoobzadeh, Majid Nili Ahmadabadi,
- Abstract要約: 大規模言語モデル(LLM)は、巨大なテキストコーパスから膨大な知識を取得するが、この情報は時代遅れになるか、不正確になる可能性がある。
リトレーニングは計算コストがかかるため、知識編集は効率的な代替手段を提供する。
この調査は、より包括的視点を提供するために、新しい補完機能に基づく分類を導入した。
- 参考スコア(独自算出の注目度): 6.051561613968997
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) acquire vast knowledge from large text corpora, but this information can become outdated or inaccurate. Since retraining is computationally expensive, knowledge editing offers an efficient alternative -- modifying internal knowledge without full retraining. These methods aim to update facts precisely while preserving the model's overall capabilities. While existing surveys focus on the mechanism of editing (e.g., parameter changes vs. external memory), they often overlook the function of the knowledge being edited. This survey introduces a novel, complementary function-based taxonomy to provide a more holistic view. We examine how different mechanisms apply to various knowledge types -- factual, temporal, conceptual, commonsense, and social -- highlighting how editing effectiveness depends on the nature of the target knowledge. By organizing our review along these two axes, we map the current landscape, outline the strengths and limitations of existing methods, define the problem formally, survey evaluation tasks and datasets, and conclude with open challenges and future directions.
- Abstract(参考訳): 大規模言語モデル(LLM)は、巨大なテキストコーパスから膨大な知識を取得するが、この情報は時代遅れになるか、不正確になる可能性がある。
リトレーニングは計算コストがかかるため、知識編集は効率的な代替手段を提供する。
これらの方法は、モデル全体の機能を維持しながら、事実を正確に更新することを目的としています。
既存の調査では、編集のメカニズム(例えば、パラメータの変更と外部メモリ)に焦点が当てられているが、編集される知識の機能を見落としていることが多い。
この調査は、より包括的視点を提供するために、新しい補完機能に基づく分類を導入した。
本研究では,様々な知識タイプ – 現実的,時間的,概念的,常識的,社会的 – に対して,編集の有効性が対象の知識の性質にどのように依存するかを明らかにする。
これら2つの軸に沿ってレビューを整理することで、現在の状況をマッピングし、既存のメソッドの強みと限界を概説し、問題を正式に定義し、評価タスクとデータセットを調査し、オープンな課題と今後の方向性で結論付けます。
関連論文リスト
- AKEW: Assessing Knowledge Editing in the Wild [79.96813982502952]
AKEW(Assessing Knowledge Editing in the Wild)は知識編集のための新しい実用的なベンチマークである。
知識更新の編集設定は、構造化された事実、構造化されていない事実としてのテキスト、抽出された三つ組の3つを網羅している。
大規模な実験を通じて、最先端の知識編集手法と実践シナリオの間にかなりのギャップがあることを実証する。
論文 参考訳(メタデータ) (2024-02-29T07:08:34Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。