論文の概要: Learning to Edit: Aligning LLMs with Knowledge Editing
- arxiv url: http://arxiv.org/abs/2402.11905v1
- Date: Mon, 19 Feb 2024 07:45:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 17:53:15.117025
- Title: Learning to Edit: Aligning LLMs with Knowledge Editing
- Title(参考訳): 編集への学習: llmと知識編集の連携
- Authors: Yuxin Jiang, Yufei Wang, Chuhan Wu, Wanjun Zhong, Xingshan Zeng,
Jiahui Gao, Liangyou Li, Xin Jiang, Lifeng Shang, Ruiming Tang, Qun Liu, Wei
Wang
- Abstract要約: 本稿では,大規模言語モデルに新たな知識を入力問題に適用する学習 to LTE(Learning to Edit)フレームワークを提案する。
LTEには2段階のプロセスがある: (i) アライメントフェーズ(アライメントフェーズ)。
LTEの知識編集性能の優位性、バッチおよびシーケンシャルな編集の堅牢性、一般的なタスクに対する最小限の干渉、高速な編集速度を示す。
- 参考スコア(独自算出の注目度): 104.70586870701922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge editing techniques, aiming to efficiently modify a minor proportion
of knowledge in large language models (LLMs) without negatively impacting
performance across other inputs, have garnered widespread attention. However,
existing methods predominantly rely on memorizing the updated knowledge,
impeding LLMs from effectively combining the new knowledge with their inherent
knowledge when answering questions. To this end, we propose a Learning to Edit
(LTE) framework, focusing on teaching LLMs to apply updated knowledge into
input questions, inspired by the philosophy of "Teach a man to fish." LTE
features a two-phase process: (i) the Alignment Phase, which fine-tunes LLMs on
a meticulously curated parallel dataset to make reliable, in-scope edits while
preserving out-of-scope information and linguistic proficiency; and (ii) the
Inference Phase, which employs a retrieval-based mechanism for real-time and
mass knowledge editing. By comparing our approach with seven advanced baselines
across four popular knowledge editing benchmarks and two LLM architectures, we
demonstrate LTE's superiority in knowledge editing performance, robustness in
both batch and sequential editing, minimal interference on general tasks, and
rapid editing speeds. The data and code are available at
https://github.com/YJiangcm/LTE.
- Abstract(参考訳): 大規模言語モデル(LLM)における知識のごく一部を、他の入力に悪影響を及ぼすことなく効率的に修正することを目的とした知識編集技術は、広く注目を集めている。
しかし、既存の手法は主に更新された知識を記憶することに依存しており、LLMは質問に答える際に、新しい知識と固有の知識を効果的に組み合わせることを妨げる。
そこで本研究では,LLMに「人間に魚を教える」という哲学に触発されて,知識を入力質問に適用する学習(LTE)フレームワークを提案する。
LTEには2段階のプロセスがあります。
(i)細密にキュレートされた並列データセット上でllmを微調整し、スコープ外情報と言語能力を維持しつつ、信頼性の高いインスコープ編集を行うアライメントフェーズ
(ii)リアルタイム・大量知識編集のための検索ベース機構を用いた推論フェーズ。
4つの一般的な知識編集ベンチマークと2つのLLMアーキテクチャにまたがって,我々のアプローチを7つの高度なベースラインと比較することにより,LTEによる知識編集性能の向上,バッチおよびシーケンシャルな編集の堅牢性,一般的なタスクへの干渉の最小化,高速な編集速度を示す。
データとコードはhttps://github.com/YJiangcm/LTEで入手できる。
関連論文リスト
- Resolving Editing-Unlearning Conflicts: A Knowledge Codebook Framework for Large Language Model Updating [61.70705744491162]
大きな言語モデル(LLM)は、人間の知識を符号化することで自然言語処理に優れる。
LLMの更新には、不要な知識を取り除くための学習と、新しい情報を統合するための編集という、2つの重要なタスクが同時に行われる。
知識コードブックに基づく LLM 更新のためのコンフリクトフリーフレームワーク Loka を提案する。
論文 参考訳(メタデータ) (2025-01-31T20:48:46Z) - Cross-Lingual Multi-Hop Knowledge Editing [53.028586843468915]
言語横断的な設定で様々なSoTA知識編集技術の性能を計測・解析するための多言語多言語知識編集パラダイムを提案する。
具体的には、知識編集能力を測定するために並列言語間ベンチマーク CROLIN-MQUAKE を作成します。
次に,言語間マルチホップ知識編集システムであるCLEVER-CKEを提案する。
論文 参考訳(メタデータ) (2024-07-14T17:18:16Z) - Time Sensitive Knowledge Editing through Efficient Finetuning [35.79991957163508]
大きな言語モデル(LLM)は、様々なタスクにおいて印象的な能力を示し、多くのドメインに変革をもたらす。
LLMの知識を最新に保つことは、事前トレーニングが完了するまで、依然として課題である。
既存の位置と編集の知識編集(KE)手法には2つの制限がある。
論文 参考訳(メタデータ) (2024-06-06T20:41:36Z) - Lifelong Knowledge Editing for LLMs with Retrieval-Augmented Continuous Prompt Learning [30.554641380670315]
本稿では,生涯学習における編集効率と推論効率を向上させるために,ContInuous Prompt lEarning法であるRECIPEを紹介する。
RECIPEはまず、知識文をLLMの入力クエリの埋め込みにプレフィックスした、短くて情報的な連続的なプロンプトに変換する。
さらに、動的しきい値を計算するために仲介役として機能する知識センチネル(KS)を統合する。
我々のレトリバーとプロンプトエンコーダは、信頼性、一般性、局所性といった編集特性を達成するために共同で訓練されている。
論文 参考訳(メタデータ) (2024-05-06T08:52:11Z) - Editing Conceptual Knowledge for Large Language Models [65.38231526537476]
本稿では,Large Language Models(LLMs)における概念知識の編集の先駆者となる。
本研究では,新しいベンチマークデータセットConceptEditを構築し,評価のための新しいメトリクスセットを確立する。
実験の結果,既存の編集手法は概念レベルの定義をある程度効率的に修正できるが,関連する瞬間的知識を歪ませる可能性も示された。
論文 参考訳(メタデータ) (2024-03-10T16:57:10Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - Eva-KELLM: A New Benchmark for Evaluating Knowledge Editing of LLMs [54.22416829200613]
Eva-KELLMは、大規模言語モデルの知識編集を評価するための新しいベンチマークである。
実験結果から, 生文書を用いた知識編集手法は, 良好な結果を得るには有効ではないことが示唆された。
論文 参考訳(メタデータ) (2023-08-19T09:17:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。