論文の概要: KnowledgeSmith: Uncovering Knowledge Updating in LLMs with Model Editing and Unlearning
- arxiv url: http://arxiv.org/abs/2510.02392v1
- Date: Wed, 01 Oct 2025 00:15:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.074982
- Title: KnowledgeSmith: Uncovering Knowledge Updating in LLMs with Model Editing and Unlearning
- Title(参考訳): KnowledgeSmith: モデル編集とアンラーニングによるLLMにおける知識更新の発見
- Authors: Yinyi Luo, Zhexian Zhou, Hao Chen, Kai Qiu, Marios Savvides, Yixuan Li, Jindong Wang,
- Abstract要約: 知識編集と機械学習は、大規模言語モデル(LLM)が最新の状態を維持するための一般的なアプローチである。
本稿では,LLMの更新メカニズムを体系的に理解するための統合フレームワークであるKnowledgeSmithを提案する。
- 参考スコア(独自算出の注目度): 32.273812251780576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge editing and machine unlearning are two popular approaches for large language models (LLMs) to stay up-to-date. However, the knowledge updating mechanism of LLMs remains largely unexplored due to insufficient, isolated, and small-scale evaluation. For instance, are LLMs similar to humans in modifying certain knowledge? What differs editing and unlearning as training data increases? This paper proposes KnowledgeSmith, a unified framework to systematically understand the updating mechanism of LLMs. We first cast editing and unlearning as instances of one constrained optimization problem. Then, we propose an automatic dataset generator that provides structured interventions across multiple graph levels and data scales, enabling controlled studies of how different modification strategies propagate through model knowledge. Extensive experiments demonstrate nuanced insights over knowledge propagation, plasticity scaling, consistency, and robustness. For instance, our results show that LLMs do not exhibit similar updating as humans for different levels of knowledge, and there exists consistency-capacity trade-off. We hope our findings can offer suggestions to the design of more reliable and scalable strategies. Code: https://github.com/AIFrontierLab/KnowledgeSmith.git
- Abstract(参考訳): 知識編集と機械学習は、大規模言語モデル(LLM)の最新の状態を維持するための2つの一般的なアプローチである。
しかし, LLMの知識更新機構は, 不十分, 孤立, 小規模な評価のため, ほとんど解明されていない。
例えば、LLMは特定の知識を変更する際に人間に似ていますか?
トレーニングデータが増加するにつれて、編集とアンラーニングの違いは何か?
本稿では,LLMの更新メカニズムを体系的に理解するための統合フレームワークであるKnowledgeSmithを提案する。
まず,制約付き最適化問題の例として,編集とアンラーニングを行った。
次に,複数のグラフレベルとデータスケールにまたがる構造的介入を提供する自動データセット生成装置を提案する。
広範な実験は、知識の伝播、塑性のスケーリング、一貫性、堅牢性に関する微妙な洞察を実証している。
例えば、我々の研究結果は、LLMは異なるレベルの知識に対する人間と類似した更新を示さず、一貫性-容量のトレードオフが存在することを示している。
私たちの発見が、より信頼性がありスケーラブルな戦略の設計に提案できることを期待しています。
コード:https://github.com/AIFrontierLab/KnowledgeSmith.git
関連論文リスト
- Comparing Knowledge Injection Methods for LLMs in a Low-Resource Regime [13.230760040927496]
大規模言語モデルに小さな非構造化情報を注入する作業について検討する。
制限されたデータに対する事前トレーニングを継続するだけで、控えめな改善が得られます。
私たちは、小さなデータ体制における忘れる現象に光を当て、新しいコンテンツ学習と既存の能力維持の微妙なバランスを図った。
論文 参考訳(メタデータ) (2025-08-08T09:48:32Z) - How new data permeates LLM knowledge and how to dilute it [19.96863816288517]
大規模言語モデルは、勾配ベースの更新の蓄積を通じて学び、継続的に学習する。
新たな事実を学習することで、モデルは無関係な文脈でその知識を不適切に適用することができる。
学習前のキーワードのトークン確率を計測することにより,新しい情報学習後のプライミングの度合いを予測することができることを示す。
論文 参考訳(メタデータ) (2025-04-13T11:25:04Z) - Mitigating Heterogeneous Token Overfitting in LLM Knowledge Editing [31.871873092103684]
大規模言語モデル (LLM) は様々な自然言語処理において顕著な性能を発揮している。
静的コーパスでトレーニングされ、その知識は急速に変化する世界で急速に時代遅れになる。
これは知識編集(KE)の発展を動機付け、無関係な他の知識を変更したり、事前訓練された能力を損なうことなく、LLMの特定の知識を更新する。
論文 参考訳(メタデータ) (2025-02-02T00:10:51Z) - Towards Reliable Latent Knowledge Estimation in LLMs: Zero-Prompt Many-Shot Based Factual Knowledge Extraction [15.534647327246239]
本稿では,大規模言語モデル(LLM)を事実知識として探索する場合に,迅速なエンジニアリングを不要にすることを提案する。
我々のアプローチはZP-LKE(Zero-Prompt Latent Knowledge Estimator)と呼ばれ、LLMの文脈内学習能力を活用している。
我々は,Wikidata の知識ベースから,さまざまなオープンソース LLM の事実知識を,膨大な関連性や事実に対して大規模に評価する。
論文 参考訳(メタデータ) (2024-04-19T15:40:39Z) - Robust and Scalable Model Editing for Large Language Models [75.95623066605259]
LLM編集のスケーラビリティと堅牢性を向上させるため,EREN(Reading Notesによる編集モデル)を提案する。
既存の技術とは異なり、複数の編集から知識を統合することができ、構文的に類似しているが意味的に無関係な入力に正しく反応する。
論文 参考訳(メタデータ) (2024-03-26T06:57:23Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。