論文の概要: MedREK: Retrieval-Based Editing for Medical LLMs with Key-Aware Prompts
- arxiv url: http://arxiv.org/abs/2510.13500v1
- Date: Wed, 15 Oct 2025 12:50:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.672596
- Title: MedREK: Retrieval-Based Editing for Medical LLMs with Key-Aware Prompts
- Title(参考訳): MedREK: キー・アウェア・プロンプトによる医療用LLMの検索ベース編集
- Authors: Shujun Xia, Haokun Lin, Yichen Wu, Yinan Zhou, Zixuan Li, Zhongwei Wan, Xingrun Xing, Yefeng Zheng, Xiang Li, Caifeng Shan, Zhenan Sun, Quanzheng Li,
- Abstract要約: 本稿では,情報誘導のための注目型プロンプトエンコーダと正確なマッチングのための共有クエリキーモジュールを統合した検索ベースの編集フレームワークであるMedREKを提案する。
各種医用ベンチマークの結果から,MedREKは異なるコアメトリクス間で優れた性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 70.64143198545031
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLMs hold great promise for healthcare applications, but the rapid evolution of medical knowledge and errors in training data often cause them to generate outdated or inaccurate information, limiting their applicability in high-stakes clinical practice. Model editing has emerged as a potential remedy without full retraining. While parameter-based editing often compromises locality and is thus ill-suited for the medical domain, retrieval-based editing offers a more viable alternative. However, it still faces two critical challenges: (1) representation overlap within the medical knowledge space often causes inaccurate retrieval and reduces editing accuracy; (2) existing methods are restricted to single-sample edits, while batch-editing remains largely unexplored despite its importance for real-world medical applications. To address these challenges, we first construct MedVersa, \hk{an enhanced benchmark with broader coverage of medical subjects, designed to evaluate both single and batch edits under strict locality constraints}. We then propose MedREK, a retrieval-based editing framework that integrates a shared query-key module for precise matching with an attention-based prompt encoder for informative guidance. Experimental results on various medical benchmarks demonstrate that our MedREK achieves superior performance across different core metrics and provides the first validated solution for batch-editing in medical LLMs. Our code and dataset are available at https://github.com/mylittleriver/MedREK.
- Abstract(参考訳): LLMは医療応用には大きな可能性を秘めているが、医療知識の急速な進化と訓練データにおけるエラーにより、しばしば時代遅れまたは不正確な情報を生成し、高い臨床実践における適用性を制限する。
モデル編集は、完全な再トレーニングなしに潜在的な治療として現れた。
パラメータベースの編集は、しばしば局所性を損なうため、医学領域には適さないが、検索ベースの編集はより有効な代替手段を提供する。
しかし,(1) 医療知識空間における表象の重複が不正確な検索を引き起こし,編集精度が低下すること,(2) 既存の手法は単一サンプルの編集に制限されていること,一方,バッチ編集は実際の医療アプリケーションにおいて重要であるにもかかわらず,ほとんど探索されていないこと,の2つの重大な課題に直面している。
これらの課題に対処するために,我々はまず,厳密な局所性制約下での単一編集とバッチ編集の両方を評価するために,医学的対象を幅広くカバーしたMedVersa, \hk{an拡張ベンチマークを構築した。
次に、情報誘導のための注意に基づくプロンプトエンコーダと正確なマッチングのための共有クエリキーモジュールを統合する検索ベースの編集フレームワークであるMedREKを提案する。
各種医用ベンチマークによる実験結果から,MedREKは各種コアメトリクスに対して優れた性能を示し,医療用LCMにおけるバッチ編集のための最初の検証済みソリューションを提供する。
私たちのコードとデータセットはhttps://github.com/mylittleriver/MedREK.comで公開されています。
関連論文リスト
- MedMKEB: A Comprehensive Knowledge Editing Benchmark for Medical Multimodal Large Language Models [5.253788190589279]
MedMKEBは,知識編集の信頼性,汎用性,局所性,可搬性,堅牢性を評価するために設計された,最初の総合的なベンチマークである。
MedMKEBは高品質な医用視覚質問応答データセット上に構築されており、慎重に構築された編集タスクに富んでいる。
ベンチマークの精度と信頼性を確保するために、人間の専門家による検証を組み込んだ。
論文 参考訳(メタデータ) (2025-08-07T07:09:26Z) - MIRA: A Novel Framework for Fusing Modalities in Medical RAG [6.044279952668295]
MLLMにおける実測精度の最適化を目的としたMIRA(Multimodal Intelligent Retrieval and Augmentation)フレームワークを提案する。
MIRAは,(1)検索コンテキスト数を動的に調整して事実リスクを管理する校正再考・再配置モジュール,(2)画像埋め込みと医用知識ベースを統合した医用RAGフレームワークと,効率的なマルチモーダル推論を行うクエリ・リライトモジュールの2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2025-07-10T16:33:50Z) - Beyond Memorization: A Rigorous Evaluation Framework for Medical Knowledge Editing [72.8373875453882]
知識編集(KE)は,大規模言語モデル(LLM)の特定の事実を,完全なリトレーニングを必要とせずに更新する,有望なアプローチとして登場した。
本稿では,医療領域における既存のKE手法の有効性を厳格に評価するために,MedEditBenchという新しいフレームワークを提案する。
以上の結果から,現在のKE法は,新たなシナリオへの一般化に失敗し,インジェクションされた情報の表層記憶に留まることが示唆された。
論文 参考訳(メタデータ) (2025-06-04T02:14:43Z) - Fact or Guesswork? Evaluating Large Language Models' Medical Knowledge with Structured One-Hop Judgments [108.55277188617035]
大規模言語モデル(LLM)は、様々な下流タスクドメインで広く採用されているが、実際の医学的知識を直接呼び起こし、適用する能力は、まだ探索されていない。
標準化された語彙と知識グラフの包括的なリポジトリであるUMLS(Unified Medical Language System)から派生したデータセットであるMKJ(Messical Knowledge Judgment dataset)を紹介する。
バイナリ分類フレームワークを通じて、MKJは、簡潔なワンホップ文の妥当性を評価することによって、LCMが基本的な医学的事実を把握できることを評価する。
論文 参考訳(メタデータ) (2025-02-20T05:27:51Z) - Editing Factual Knowledge and Explanatory Ability of Medical Large Language Models [89.13883089162951]
モデル編集は、大きな言語モデル(LLM)の振る舞いを、特定の知識に関連して正確に変更することを目的としている。
このアプローチは、LLMにおける幻覚や時代遅れの情報の問題に対処する上で有効であることが証明されている。
しかし、医療分野における知識の修正にモデル編集を用いることの可能性はほとんど解明されていない。
論文 参考訳(メタデータ) (2024-02-28T06:40:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。