論文の概要: MedMKEB: A Comprehensive Knowledge Editing Benchmark for Medical Multimodal Large Language Models
- arxiv url: http://arxiv.org/abs/2508.05083v1
- Date: Thu, 07 Aug 2025 07:09:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.736752
- Title: MedMKEB: A Comprehensive Knowledge Editing Benchmark for Medical Multimodal Large Language Models
- Title(参考訳): MedMKEB:医療用マルチモーダル大言語モデルのための総合的知識編集ベンチマーク
- Authors: Dexuan Xu, Jieyi Wang, Zhongyan Chai, Yongzhi Cao, Hanpin Wang, Huamin Zhang, Yu Huang,
- Abstract要約: MedMKEBは,知識編集の信頼性,汎用性,局所性,可搬性,堅牢性を評価するために設計された,最初の総合的なベンチマークである。
MedMKEBは高品質な医用視覚質問応答データセット上に構築されており、慎重に構築された編集タスクに富んでいる。
ベンチマークの精度と信頼性を確保するために、人間の専門家による検証を組み込んだ。
- 参考スコア(独自算出の注目度): 5.253788190589279
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in multimodal large language models (MLLMs) have significantly improved medical AI, enabling it to unify the understanding of visual and textual information. However, as medical knowledge continues to evolve, it is critical to allow these models to efficiently update outdated or incorrect information without retraining from scratch. Although textual knowledge editing has been widely studied, there is still a lack of systematic benchmarks for multimodal medical knowledge editing involving image and text modalities. To fill this gap, we present MedMKEB, the first comprehensive benchmark designed to evaluate the reliability, generality, locality, portability, and robustness of knowledge editing in medical multimodal large language models. MedMKEB is built on a high-quality medical visual question-answering dataset and enriched with carefully constructed editing tasks, including counterfactual correction, semantic generalization, knowledge transfer, and adversarial robustness. We incorporate human expert validation to ensure the accuracy and reliability of the benchmark. Extensive single editing and sequential editing experiments on state-of-the-art general and medical MLLMs demonstrate the limitations of existing knowledge-based editing approaches in medicine, highlighting the need to develop specialized editing strategies. MedMKEB will serve as a standard benchmark to promote the development of trustworthy and efficient medical knowledge editing algorithms.
- Abstract(参考訳): マルチモーダル大言語モデル(MLLM)の最近の進歩は、医療AIを大幅に改善し、視覚情報とテキスト情報の理解を統一することを可能にする。
しかし、医学的知識が進化し続けるにつれて、これらのモデルがスクラッチから再トレーニングすることなく、時代遅れまたは誤った情報を効率的に更新できることが重要である。
テキスト知識編集は広く研究されているが、画像やテキストのモダリティを含むマルチモーダルな医療知識編集のための体系的なベンチマークはいまだに存在しない。
このギャップを埋めるために、医療マルチモーダル大言語モデルにおける知識編集の信頼性、汎用性、局所性、ポータビリティ、堅牢性を評価するために設計された最初の総合ベンチマークであるMedMKEBを提案する。
MedMKEBは、高品質な医用視覚質問応答データセット上に構築され、反ファクト補正、セマンティック・ジェネリゼーション、知識伝達、敵の堅牢性など、慎重に構築された編集タスクに富んでいる。
ベンチマークの精度と信頼性を確保するために、人間の専門家による検証を組み込んだ。
医学における知識に基づく編集アプローチの限界を実証し、専門的な編集戦略を開発する必要性を強調した。
MedMKEBは、信頼できる効率的な医療知識編集アルゴリズムの開発を促進するための標準ベンチマークとして機能する。
関連論文リスト
- MIRA: A Novel Framework for Fusing Modalities in Medical RAG [6.044279952668295]
MLLMにおける実測精度の最適化を目的としたMIRA(Multimodal Intelligent Retrieval and Augmentation)フレームワークを提案する。
MIRAは,(1)検索コンテキスト数を動的に調整して事実リスクを管理する校正再考・再配置モジュール,(2)画像埋め込みと医用知識ベースを統合した医用RAGフレームワークと,効率的なマルチモーダル推論を行うクエリ・リライトモジュールの2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2025-07-10T16:33:50Z) - Enhancing Medical Dialogue Generation through Knowledge Refinement and Dynamic Prompt Adjustment [43.01880734118588]
医療対話システム(MDS)は、患者とのマルチターン・コンテキスト対応の会話を可能にする重要なオンラインプラットフォームとして登場した。
本稿では,知識精製と動的プロンプト調整を取り入れた新しいMDSであるMedRefを提案する。
MedRefは、生成品質と医療機関の精度の両方において最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2025-06-12T16:44:25Z) - Lingshu: A Generalist Foundation Model for Unified Multimodal Medical Understanding and Reasoning [57.873833577058]
医療知識の豊富なマルチモーダルデータセットを構築した。
次に医学専門のMLLMであるLingshuを紹介します。
Lingshuは、医療専門知識の組み込みとタスク解決能力の向上のために、マルチステージトレーニングを行っている。
論文 参考訳(メタデータ) (2025-06-08T08:47:30Z) - Beyond Memorization: A Rigorous Evaluation Framework for Medical Knowledge Editing [72.8373875453882]
知識編集(KE)は,大規模言語モデル(LLM)の特定の事実を,完全なリトレーニングを必要とせずに更新する,有望なアプローチとして登場した。
本稿では,医療領域における既存のKE手法の有効性を厳格に評価するために,MedEditBenchという新しいフレームワークを提案する。
以上の結果から,現在のKE法は,新たなシナリオへの一般化に失敗し,インジェクションされた情報の表層記憶に留まることが示唆された。
論文 参考訳(メタデータ) (2025-06-04T02:14:43Z) - Fact or Guesswork? Evaluating Large Language Model's Medical Knowledge with Structured One-Hop Judgment [108.55277188617035]
大規模言語モデル(LLM)は、様々な下流タスクドメインで広く採用されているが、実際の医学的知識を直接呼び起こし適用する能力はいまだ探索されていない。
既存の医療QAベンチマークの多くは、複雑な推論やマルチホップ推論を評価しており、LSM固有の医療知識を推論能力から切り離すことが困難である。
LLMの1ホップの医療知識を測定するために特別に設計されたデータセットであるMedical Knowledge Judgmentを紹介する。
論文 参考訳(メタデータ) (2025-02-20T05:27:51Z) - Editing Factual Knowledge and Explanatory Ability of Medical Large Language Models [89.13883089162951]
モデル編集は、大きな言語モデル(LLM)の振る舞いを、特定の知識に関連して正確に変更することを目的としている。
このアプローチは、LLMにおける幻覚や時代遅れの情報の問題に対処する上で有効であることが証明されている。
しかし、医療分野における知識の修正にモデル編集を用いることの可能性はほとんど解明されていない。
論文 参考訳(メタデータ) (2024-02-28T06:40:57Z) - Towards Medical Artificial General Intelligence via Knowledge-Enhanced
Multimodal Pretraining [121.89793208683625]
医療人工知能(MAGI)は、1つの基礎モデルで異なる医療課題を解くことができる。
我々は、Micical-knedge-enhanced mulTimOdal pretRaining (motoR)と呼ばれる新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-26T01:26:19Z) - Align, Reason and Learn: Enhancing Medical Vision-and-Language
Pre-training with Knowledge [68.90835997085557]
本稿では,3つの視点から構造化された医療知識を高めるための体系的かつ効果的なアプローチを提案する。
まず、視覚エンコーダと言語エンコーダの表現を知識を通して整列する。
次に,多モード融合モデルに知識を注入し,入力画像とテキストの補足として知識を用いた推論を可能にする。
第3に、知識によって引き起こされるプレテキストタスクを設計することで、画像やテキストの最も重要な情報に重点を置くよう、モデルを指導する。
論文 参考訳(メタデータ) (2022-09-15T08:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。