論文の概要: MELO: Enhancing Model Editing with Neuron-Indexed Dynamic LoRA
- arxiv url: http://arxiv.org/abs/2312.11795v1
- Date: Tue, 19 Dec 2023 02:11:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 17:25:29.704908
- Title: MELO: Enhancing Model Editing with Neuron-Indexed Dynamic LoRA
- Title(参考訳): MELO: ニューロンインデクシング動的ロラによるモデル編集の強化
- Authors: Lang Yu, Qin Chen, Jie Zhou, Liang He
- Abstract要約: ニューロンインデクシング動的LoRA(MELO)に基づくプラグインモデル編集手法を提案する。
提案するMELOは,3つの逐次編集タスクにおける最先端の編集性能を実現する。
- 参考スコア(独自算出の注目度): 34.21194537887934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have shown great success in various Natural
Language Processing (NLP) tasks, whist they still need updates after deployment
to fix errors or keep pace with the changing knowledge in the world.
Researchers formulate such problem as Model Editing and have developed various
editors focusing on different axes of editing properties. However, current
editors can hardly support all properties and rely on heavy computational
resources. In this paper, we propose a plug-in Model Editing method based on
neuron-indexed dynamic LoRA (MELO), which alters the behavior of language
models by dynamically activating certain LoRA blocks according to the index
built in an inner vector database. Our method satisfies various editing
properties with high efficiency and can be easily integrated into multiple LLM
backbones. Experimental results show that our proposed MELO achieves
state-of-the-art editing performance on three sequential editing tasks
(document classification, question answering and hallucination correction),
while requires the least trainable parameters and computational cost.
- Abstract(参考訳): 大規模な言語モデル(LLM)は、さまざまな自然言語処理(NLP)タスクで大きな成功を収めている。
研究者らはモデル編集のような問題を定式化し、編集特性の異なる軸に着目した様々なエディタを開発した。
しかし、現在のエディタはすべてのプロパティをサポートできず、重い計算リソースに依存している。
本稿では、内部ベクトルデータベースに構築されたインデックスに基づいて特定のLoRAブロックを動的に活性化することにより言語モデルの振る舞いを変化させる、ニューロンインデクシング動的LoRA(MELO)に基づくプラグインモデル編集手法を提案する。
本手法は,様々な編集特性を高い効率で満たし,複数のllmバックボーンに容易に統合できる。
実験の結果,提案手法は3つの逐次編集タスク(文書分類,質問応答,幻覚修正)において最先端の編集性能を達成でき,しかも最小の学習パラメータと計算コストが要求されることがわかった。
関連論文リスト
- Is Bigger Edit Batch Size Always Better? -- An Empirical Study on Model Editing with Llama-3 [2.569159339315845]
本研究では,最新の大言語モデルであるLlama-3に着目したターゲットモデル編集分析を行う。
最大4096個の編集を対象とする評価により,最も効果的な編集層を同定する。
論文 参考訳(メタデータ) (2024-05-01T17:50:37Z) - The Butterfly Effect of Model Editing: Few Edits Can Trigger Large Language Models Collapse [58.0132400208411]
単一の編集でさえモデル崩壊を引き起こし、様々なベンチマークタスクで大幅なパフォーマンス低下を示す。
編集後の大規模言語モデルのベンチマークは、過激な時間とリソース集約である。
提案手法は,下流タスク性能と強い相関を示す広範な実験により検証され,サロゲート指標としてパープレキシティを用いる。
論文 参考訳(メタデータ) (2024-02-15T01:50:38Z) - SWEA: Updating Factual Knowledge in Large Language Models via Subject Word Embedding Altering [17.20346072074533]
最近のモデル編集は、大規模言語モデル(LLM)の少量の知識を効率的に更新するための有望な手法である
本稿では,トークンレベルのマッチングによる埋め込みの編集を行うSWEAフレームワークを提案する。
我々は、textscCounterFactおよびzsREデータセット上でSWEA$oplus$OSのSOTA(State-of-the-art)パフォーマンスを実証する。
論文 参考訳(メタデータ) (2024-01-31T13:08:45Z) - Model Editing Can Hurt General Abilities of Large Language Models [128.32797540883507]
LLaMA-1 (7B) の編集に特定の方法を用いることで、単一の編集だけで選択された全てのタスクにおいて、大幅な性能低下が0に近づいた。
LLaMA-1 (7B) の編集に特定の方法を用いることで、単一の編集だけで選択された全てのタスクにおいて、大幅な性能低下が0に近づいた。
論文 参考訳(メタデータ) (2024-01-09T18:03:15Z) - SmartEdit: Exploring Complex Instruction-based Image Editing with
Multimodal Large Language Models [91.22477798288003]
本稿では,命令ベースの画像編集の新しいアプローチであるSmartEditを紹介する。
MLLM(Multimodal Large Language Models)を利用して、その理解と推論能力を強化する。
我々は,より複雑な命令に対して,SmartEditの編集機能を効果的に刺激することのできる,少量の複雑な命令編集データを示す。
論文 参考訳(メタデータ) (2023-12-11T17:54:11Z) - Can We Edit Multimodal Large Language Models? [38.292574747632635]
マルチモーダル LLM を編集するための新しいベンチマーク MMEdit を構築した。
様々なモデル編集ベースラインを含む総合的な実験を行い、異なるコンポーネントの編集の影響を分析する。
論文 参考訳(メタデータ) (2023-10-12T16:32:44Z) - Editing Large Language Models: Problems, Methods, and Opportunities [51.903537096207]
本稿では, LLMのモデル編集に関わる問題, 方法, 機会を深く探究する。
本稿では,モデル編集に関わるタスク定義と課題の概観と,現在処理中の最も進歩的な手法の詳細な実証分析について述べる。
本研究の目的は,各編集手法の有効性と実現可能性に関する貴重な知見を提供することであり,特定のタスクやコンテキストに対して,最も適切な方法の選択に関する情報決定を行う上で,コミュニティを支援することである。
論文 参考訳(メタデータ) (2023-05-22T16:00:00Z) - Memory-Based Model Editing at Scale [102.28475739907498]
既存のモデルエディタは、編集対象のスコープを正確にモデル化するのに苦労する。
SERAC(Retrieval-Augmented Counterfactal Model)を用いた半パラメトリック編集を提案する。
SERACは、編集を明示的なメモリに格納し、必要に応じてベースモデルの予測を変更できるように、それらを推論することを学ぶ。
論文 参考訳(メタデータ) (2022-06-13T23:40:34Z) - Learning to Model Editing Processes [98.11448946134894]
本稿では、反復的にシーケンスを生成するプロセス全体をモデル化し、編集プロセスのモデリングを提案する。
我々は、多段階編集の可能性を記述するための概念的枠組みを構築し、これらの多段階編集に基づいてシーケンスの生成モデルを学ぶことができるニューラルネットワークを記述する。
論文 参考訳(メタデータ) (2022-05-24T21:32:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。