論文の概要: Editing Factual Knowledge and Explanatory Ability of Medical Large
Language Models
- arxiv url: http://arxiv.org/abs/2402.18099v1
- Date: Wed, 28 Feb 2024 06:40:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 16:04:29.055049
- Title: Editing Factual Knowledge and Explanatory Ability of Medical Large
Language Models
- Title(参考訳): 医療用大言語モデルのファクチュアル知識と説明能力の編集
- Authors: Derong Xu, Ziheng Zhang, Zhihong Zhu, Zhenxi Lin, Qidong Liu, Xian Wu,
Tong Xu, Xiangyu Zhao, Yefeng Zheng, Enhong Chen
- Abstract要約: モデル編集は、特定の知識に基づいて大きな言語モデル(LLM)の振る舞いを正確に修正することを目的としている。
LLMの幻覚や時代遅れの問題の解決に有効であることが証明されている。
本稿では,2つのモデル編集研究を提案し,それらを医療領域で検証する。
- 参考スコア(独自算出の注目度): 95.4008873587564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model editing aims to precisely modify the behaviours of large language
models (LLMs) on specific knowledge while keeping irrelevant knowledge
unchanged. It has been proven effective in resolving hallucination and
out-of-date issues in LLMs. As a result, it can boost the application of LLMs
in many critical domains (e.g., medical domain), where the hallucination is not
tolerable. In this paper, we propose two model editing studies and validate
them in the medical domain: (1) directly editing the factual medical knowledge
and (2) editing the explanations to facts. Meanwhile, we observed that current
model editing methods struggle with the specialization and complexity of
medical knowledge. Therefore, we propose MedLaSA, a novel Layer-wise Scalable
Adapter strategy for medical model editing. It employs causal tracing to
identify the precise location of knowledge in neurons and then introduces
scalable adapters into the dense layers of LLMs. These adapters are assigned
scaling values based on the corresponding specific knowledge. To evaluate the
editing impact, we build two benchmark datasets and introduce a series of
challenging and comprehensive metrics. Extensive experiments on medical LLMs
demonstrate the editing efficiency of MedLaSA, without affecting irrelevant
knowledge that is not edited.
- Abstract(参考訳): モデル編集の目的は、関係のない知識を維持しつつ、特定の知識に基づいて大きな言語モデル(LLM)の振る舞いを正確に修正することである。
LLMの幻覚や過去の問題の解決に有効であることが証明されている。
その結果、幻覚が許容できない多くの重要な領域(例えば医療領域)におけるLSMの応用を促進することができる。
本稿では,医療領域における2つのモデル編集研究を提案し,その妥当性を検証する。(1)医療知識を直接編集し,(2)説明を事実に編集する。
一方,現在のモデル編集手法は,医療知識の専門化と複雑化に苦慮している。
そこで我々は,医療モデル編集のための新しい階層型スケーラブルアダプタ戦略である medlasa を提案する。
因果追跡を用いてニューロン内の知識の正確な位置を特定し、LLMの密度の高い層にスケーラブルなアダプタを導入する。
これらのアダプタは、対応する特定の知識に基づいてスケーリング値を割り当てる。
編集の影響を評価するために、2つのベンチマークデータセットを構築し、挑戦的で包括的なメトリクスを紹介します。
医学LLMに関する大規模な実験は、編集されていない無関係な知識に影響を与えることなく、MedLaSAの編集効率を示す。
関連論文リスト
- Can Knowledge Editing Really Correct Hallucinations? [16.311982837980345]
大規模言語モデル(LLM)は、タスクにまたがる優れた能力にもかかわらず、生成されたコンテンツの非現実的な情報を参照しながら幻覚に悩まされる。
知識編集は,LLMで符号化された誤った事実知識を,スクラッチからリトレーニングを避けるという利点によって補正する,新しい一般的なパラダイムとして開発された。
実世界の幻覚を正すための知識編集手法を全体ベンチマークするために,HaluEditBenchを提案する。
論文 参考訳(メタデータ) (2024-10-21T17:55:54Z) - How Well Can Knowledge Edit Methods Edit Perplexing Knowledge? [18.022428746019582]
本研究では,「複雑度」の異なる知識を取り入れた知識編集手法の能力について検討する。
新たな知識の「複雑さ」と12シナリオの編集効率との間に有意な負の相関関係が認められた。
知識階層が編集結果に与える影響のさらなる調査は、より階層的な水準にある知識が、いくつかのシナリオにおいて変更することがより困難であることを示唆している。
論文 参考訳(メタデータ) (2024-06-25T03:41:02Z) - Editing the Mind of Giants: An In-Depth Exploration of Pitfalls of Knowledge Editing in Large Language Models [26.516571783335824]
近年の研究では、知識の歪みや一般的な能力の劣化など、編集後に現れた副作用が特定されている。
本調査では,これらの側面を包括的に研究し,大規模言語モデルにおける知識編集の課題を統一的に考察する。
論文 参考訳(メタデータ) (2024-06-03T15:28:21Z) - WISE: Rethinking the Knowledge Memory for Lifelong Model Editing of Large Language Models [78.22291694903659]
大規模言語モデル(LLM)は、成長を続ける世界の事実に適合し、幻覚的応答を修正するために知識更新を必要とする。
更新された知識が記憶にどこに存在するかは、モデル編集の基本的な問題である。
記憶のギャップを埋めるためにWISEを提案する。
論文 参考訳(メタデータ) (2024-05-23T16:35:52Z) - Editing Conceptual Knowledge for Large Language Models [65.38231526537476]
本稿では,Large Language Models(LLMs)における概念知識の編集の先駆者となる。
本研究では,新しいベンチマークデータセットConceptEditを構築し,評価のための新しいメトリクスセットを確立する。
実験の結果,既存の編集手法は概念レベルの定義をある程度効率的に修正できるが,関連する瞬間的知識を歪ませる可能性も示された。
論文 参考訳(メタデータ) (2024-03-10T16:57:10Z) - Knowledge Graph Enhanced Large Language Model Editing [37.6721061644483]
大規模言語モデル(LLM)は、自然言語処理(NLP)タスクの進行において重要な要素である。
既存の編集方法は、編集に関連する知識の変化を追跡し、組み込むのに苦労する。
知識グラフを利用した新しいモデル編集手法を提案し,LLM編集の強化,すなわちGLAMEを提案する。
論文 参考訳(メタデータ) (2024-02-21T07:52:26Z) - Learning to Edit: Aligning LLMs with Knowledge Editing [101.96620267293731]
本稿では,大規模言語モデルに新たな知識を入力問題に適用する学習 to LTE(Learning to Edit)フレームワークを提案する。
LTEには2段階のプロセスがある: (i) アライメントフェーズ(アライメントフェーズ)。
LTEの知識編集性能の優位性、バッチおよびシーケンシャルな編集の堅牢性、一般的なタスクに対する最小限の干渉、高速な編集速度を示す。
論文 参考訳(メタデータ) (2024-02-19T07:45:17Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - Unveiling the Pitfalls of Knowledge Editing for Large Language Models [41.83423510576848]
知識編集が潜在的なリスクをもたらす副作用をもたらすかどうかはまだ不明である。
本稿では,大規模言語モデルの知識編集に伴う潜在的な落とし穴について検討する。
実験結果は、知識編集が意図しない結果の影を必然的に落としてしまうことを鮮明に示している。
論文 参考訳(メタデータ) (2023-10-03T15:10:46Z) - Eva-KELLM: A New Benchmark for Evaluating Knowledge Editing of LLMs [54.22416829200613]
Eva-KELLMは、大規模言語モデルの知識編集を評価するための新しいベンチマークである。
実験結果から, 生文書を用いた知識編集手法は, 良好な結果を得るには有効ではないことが示唆された。
論文 参考訳(メタデータ) (2023-08-19T09:17:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。