論文の概要: MindBridge: Scalable and Cross-Model Knowledge Editing via Memory-Augmented Modality
- arxiv url: http://arxiv.org/abs/2503.02701v1
- Date: Tue, 04 Mar 2025 15:17:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 18:50:39.632766
- Title: MindBridge: Scalable and Cross-Model Knowledge Editing via Memory-Augmented Modality
- Title(参考訳): MindBridge: メモリ拡張モダリティによるスケーラブルでクロスモデルな知識編集
- Authors: Shuaike Li, Kai Zhang, Qi Liu, Enhong Chen,
- Abstract要約: 既存のほとんどのメソッドは特定のモデルに過度に適合し、更新毎に編集済みの知識を破棄する。
マルチモーダルモデルにおけるモダリティ処理とLLMの低結合に着想を得た,スケーラブルなソリューションであるMindBridgeを紹介する。
MindBridgeは数万の知識エントリを編集しても優れたパフォーマンスを実現し、異なるLLMに柔軟に対応できる。
- 参考スコア(独自算出の注目度): 55.01380617388064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge editing is a technique for efficiently and accurately updating the knowledge of large language models (LLMs) to alleviate obsolescence and correct errors. However, most existing methods overfit to specific models, causing edited knowledge to be discarded during each LLM update and requiring frequent re-editing, which is particularly burdensome in today's rapidly evolving open-source community. To address this issue, we propose the problem of cross-model knowledge editing and introduce MindBridge, a scalable solution inspired by the low coupling between modality processing and LLMs in multi-modal models. MindBridge introduces the novel concept of memory modality, which encodes edited knowledge as an independent modality. It first performs LLM-agnostic pre-training of the memory modality and then integrates it with various LLMs. Extensive experiments on multiple LLMs and popular knowledge editing datasets demonstrate that MindBridge achieves superior performance even in editing tens of thousands of knowledge entries and can flexibly adapt to different LLMs. Our code is available at https://github.com/CrashBugger/MindBridge.
- Abstract(参考訳): 知識編集は、大きな言語モデル(LLM)の知識を効率よく正確に更新し、不明瞭さと正しい誤りを軽減する技術である。
しかし、既存のほとんどのメソッドは特定のモデルに過度に適合し、LLM更新毎に編集された知識を破棄し、頻繁に再編集する必要がある。
この問題に対処するために,マルチモーダルモデルにおけるモダリティ処理とLLMの結合性の低さから着想を得たスケーラブルなソリューションであるMindBridgeを提案する。
MindBridgeは、編集された知識を独立したモダリティとしてエンコードする、メモリモダリティという新しい概念を紹介している。
まず、LLMに依存しないメモリモダリティの事前学習を行い、その後様々なLCMと統合する。
複数のLLMと一般的な知識編集データセットに関する大規模な実験により、MindBridgeは数万の知識エントリを編集しても優れた性能を発揮し、異なるLLMに柔軟に適応できることを示した。
私たちのコードはhttps://github.com/CrashBugger/MindBridge.comで利用可能です。
関連論文リスト
- Latent Knowledge Scalpel: Precise and Massive Knowledge Editing for Large Language Models [3.834827405473377]
大規模言語モデル(LLM)は、しばしば事前学習から不正確な情報や時代遅れの情報を保持し、推論中に誤った予測や偏りのある出力をもたらす。
我々はLLMエディタであるLatent Knowledge Scalpel(LKS)を紹介し、軽量なハイパーネットワークを用いて特定のエンティティの潜在知識を操作し、正確かつ大規模な編集を可能にする。
Llama-2とMistralで行った実験では、同時編集数が10,000に達したとしても、LKSは編集されたLLMの一般的な能力を保ちながら知識編集を効果的に行う。
論文 参考訳(メタデータ) (2025-08-01T03:51:43Z) - Model Merging for Knowledge Editing [53.799891745131724]
大規模言語モデル(LLM)は、世界が進化するにつれて正確で現在の知識を維持するために継続的な更新を必要とする。
既存の知識編集アプローチは知識更新のための様々なソリューションを提供するが、しばしば連続的な編集シナリオに苦労する。
本稿では,頑健な教師付き微調整(R-SFT)とモデルマージを組み合わせた2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-14T07:42:39Z) - Editing as Unlearning: Are Knowledge Editing Methods Strong Baselines for Large Language Model Unlearning? [14.656572343761153]
編集とアンラーニングは2つの異なるタスクのようですが、それらの間には密接な関係があることが分かりました。
知識編集技術がLLMアンラーニングの強力なベースラインであるかどうかを評価する。
未学習アプリケーションの編集方法を改善するために,自己改善とクエリマージを含む実践的なレシピを提案する。
論文 参考訳(メタデータ) (2025-05-26T11:39:56Z) - AnyEdit: Edit Any Knowledge Encoded in Language Models [69.30638272162267]
大規模言語モデル(LLM)のための新しい自動回帰編集パラダイムであるAnyEditを提案する。
長い形式の知識を逐次チャンクに分解し、各チャンク内のキートークンを反復的に編集し、一貫性と正確な出力を保証する。
UnKEBench、AKEW、そして我々の長文の多様な知識のための新しいEditEverythingデータセットを含むベンチマークでは、強いベースラインを21.5%上回っている。
論文 参考訳(メタデータ) (2025-02-08T16:18:37Z) - Mitigating Heterogeneous Token Overfitting in LLM Knowledge Editing [21.143790515287392]
大規模言語モデル (LLM) は様々な自然言語処理において顕著な性能を発揮している。
静的コーパスでトレーニングされ、その知識は急速に変化する世界で急速に時代遅れになる。
これは知識編集(KE)の発展を動機付け、無関係な他の知識を変更したり、事前訓練された能力を損なうことなく、LLMの特定の知識を更新する。
論文 参考訳(メタデータ) (2025-02-02T00:10:51Z) - Resolving Editing-Unlearning Conflicts: A Knowledge Codebook Framework for Large Language Model Updating [61.70705744491162]
大きな言語モデル(LLM)は、人間の知識を符号化することで自然言語処理に優れる。
LLMの更新には、不要な知識を取り除くための学習と、新しい情報を統合するための編集という、2つの重要なタスクが同時に行われる。
知識コードブックに基づく LLM 更新のためのコンフリクトフリーフレームワーク Loka を提案する。
論文 参考訳(メタデータ) (2025-01-31T20:48:46Z) - ConKE: Conceptualization-Augmented Knowledge Editing in Large Language Models for Commonsense Reasoning [47.98788315789392]
ConceptEditは、概念化とインスタンス化をKnowledge Editingパイプラインに統合するフレームワークである。
その結果,コンセプション編集は,他のベースラインに比べて信頼性が向上し,コモンセンスの知識を生み出すことができた。
論文 参考訳(メタデータ) (2024-12-16T03:34:40Z) - WISE: Rethinking the Knowledge Memory for Lifelong Model Editing of Large Language Models [78.22291694903659]
大規模言語モデル(LLM)は、成長を続ける世界の事実に適合し、幻覚的応答を修正するために知識更新を必要とする。
更新された知識が記憶にどこに存在するかは、モデル編集の基本的な問題である。
記憶のギャップを埋めるためにWISEを提案する。
論文 参考訳(メタデータ) (2024-05-23T16:35:52Z) - Editing Conceptual Knowledge for Large Language Models [65.38231526537476]
本稿では,Large Language Models(LLMs)における概念知識の編集の先駆者となる。
本研究では,新しいベンチマークデータセットConceptEditを構築し,評価のための新しいメトリクスセットを確立する。
実験の結果,既存の編集手法は概念レベルの定義をある程度効率的に修正できるが,関連する瞬間的知識を歪ませる可能性も示された。
論文 参考訳(メタデータ) (2024-03-10T16:57:10Z) - Learning to Edit: Aligning LLMs with Knowledge Editing [101.96620267293731]
本稿では,大規模言語モデルに新たな知識を入力問題に適用する学習 to LTE(Learning to Edit)フレームワークを提案する。
LTEには2段階のプロセスがある: (i) アライメントフェーズ(アライメントフェーズ)。
LTEの知識編集性能の優位性、バッチおよびシーケンシャルな編集の堅牢性、一般的なタスクに対する最小限の干渉、高速な編集速度を示す。
論文 参考訳(メタデータ) (2024-02-19T07:45:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。