論文の概要: Editing Large Language Models: Problems, Methods, and Opportunities
- arxiv url: http://arxiv.org/abs/2305.13172v1
- Date: Mon, 22 May 2023 16:00:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 14:36:55.044452
- Title: Editing Large Language Models: Problems, Methods, and Opportunities
- Title(参考訳): 大規模言語モデルの編集:問題、方法、機会
- Authors: Yunzhi Yao, Peng Wang, Bozhong Tian, Siyuan Cheng, Zhoubo Li, Shumin
Deng, Huajun Chen, Ningyu Zhang
- Abstract要約: 大きな言語モデル(LLM)は、人間の言語に似たテキストを理解し、生成するための印象的な適性を示す。
高い能力を持つLDMを訓練する能力にもかかわらず、それらの関連性を維持し、エラーを修正するための方法論はいまだ解明されていない。
本稿では, LLMのモデル編集に関する問題, 方法, 機会を深く探求する。
- 参考スコア(独自算出の注目度): 35.00765291454089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in deep learning have precipitated the emergence of large
language models (LLMs) which exhibit an impressive aptitude for understanding
and producing text akin to human language. Despite the ability to train highly
capable LLMs, the methodology for maintaining their relevancy and rectifying
errors remains elusive. To that end, the past few years have witnessed a surge
in techniques for editing LLMs, the objective of which is to alter the behavior
of LLMs within a specific domain without negatively impacting performance
across other inputs. This paper embarks on a deep exploration of the problems,
methods, and opportunities relating to model editing for LLMs. In particular,
we provide an exhaustive overview of the task definition and challenges
associated with model editing, along with an in-depth empirical analysis of the
most progressive methods currently at our disposal. We also build a new
benchmark dataset to facilitate a more robust evaluation and pinpoint enduring
issues intrinsic to existing techniques. Our objective is to provide valuable
insights into the effectiveness and feasibility of each model editing
technique, thereby assisting the research community in making informed
decisions when choosing the most appropriate method for a specific task or
context. Code and datasets will be available at
https://github.com/zjunlp/EasyEdit.
- Abstract(参考訳): 近年のディープラーニングの進歩は、人間の言語に類似したテキストを理解し、生成する能力を示す大規模言語モデル(llm)の出現を告げている。
高い能力を持つLDMを訓練する能力にもかかわらず、それらの関連性を維持し、エラーを修正するための方法論はいまだ解明されていない。
そのために、ここ数年でLSMの編集技術が急増し、その目的は、特定のドメイン内のLSMの振る舞いを他の入力に悪影響を及ぼすことなく変更することにある。
本稿では, LLMのモデル編集に関する問題, 方法, 機会を深く探求する。
特に、現在廃棄されている最も進歩的な方法の詳細な経験的分析とともに、モデル編集に関連するタスク定義と課題を徹底的に概観する。
また、より堅牢な評価と、既存の技術に固有の永続的な問題を特定できるように、新しいベンチマークデータセットを構築しました。
本研究の目的は、各モデル編集手法の有効性と実現可能性に関する貴重な知見を提供することであり、特定のタスクやコンテキストに対して最適な方法を選択する際に、研究コミュニティが情報決定を行うのを支援することである。
コードとデータセットはhttps://github.com/zjunlp/EasyEdit.comから入手できる。
関連論文リスト
- FAME: Towards Factual Multi-Task Model Editing [4.858226284963096]
大規模言語モデル(LLM)は、幅広い知識を組み込んで、様々なタスクで非常によく機能する。
提案するFAMEは,モデル編集の実用性を高めるために設計された,現実的で包括的でマルチタスクなデータセットである。
次に,新しいキャッシング機構を用いて実世界との同期を確保するモデル編集手法であるSKEMEを提案する。
論文 参考訳(メタデータ) (2024-10-07T13:46:06Z) - Deconfounded Causality-aware Parameter-Efficient Fine-Tuning for Problem-Solving Improvement of LLMs [12.48241058167222]
大規模言語モデル(LLM)は、人間の指示に基づいて様々なタスクに取り組む際に、顕著な効率性を示した。
しかし、数学や物理学の限界など、推論を必要とするタスクに苦しむことが研究によって明らかになっている。
このことは、LLMが組み込み知識を本当に理解しているか、それとも、コンテンツに対する真の理解なしにトークン分布を複製することを学ぶだけなのかという疑問を提起する。
モデルの推論能力を高めるために,新しいパラメータ効率細調整法であるDecon Causal Adaptation (DCA)を提案する。
論文 参考訳(メタデータ) (2024-09-04T13:17:09Z) - Editing Conceptual Knowledge for Large Language Models [65.38231526537476]
本稿では,Large Language Models(LLMs)における概念知識の編集の先駆者となる。
本研究では,新しいベンチマークデータセットConceptEditを構築し,評価のための新しいメトリクスセットを確立する。
実験の結果,既存の編集手法は概念レベルの定義をある程度効率的に修正できるが,関連する瞬間的知識を歪ませる可能性も示された。
論文 参考訳(メタデータ) (2024-03-10T16:57:10Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z) - Automatically Correcting Large Language Models: Surveying the landscape
of diverse self-correction strategies [104.32199881187607]
大規模言語モデル(LLM)は、幅広いNLPタスクで顕著な性能を示した。
これらの欠陥を正すための有望なアプローチは自己補正であり、LLM自体が自身の出力で問題を修正するために誘導される。
本稿では,この新技術について概観する。
論文 参考訳(メタデータ) (2023-08-06T18:38:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。