論文の概要: AMANDA: Agentic Medical Knowledge Augmentation for Data-Efficient Medical Visual Question Answering
- arxiv url: http://arxiv.org/abs/2510.02328v1
- Date: Fri, 26 Sep 2025 01:22:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:51.998112
- Title: AMANDA: Agentic Medical Knowledge Augmentation for Data-Efficient Medical Visual Question Answering
- Title(参考訳): AMANDA:データ効率の良い医用ビジュアル質問応答のためのエージェント医療知識増強
- Authors: Ziqing Wang, Chengsheng Mao, Xiaole Wen, Yuan Luo, Kaize Ding,
- Abstract要約: LLMエージェントを介して医療知識を増強するトレーニングフリーエージェントフレームワークであるAMANDAを提案する。
8つのMed-VQAベンチマークの実験では、ゼロショットと少数ショットのMed-VQA設定の両方で大幅に改善されている。
- 参考スコア(独自算出の注目度): 34.90463380394591
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical Multimodal Large Language Models (Med-MLLMs) have shown great promise in medical visual question answering (Med-VQA). However, when deployed in low-resource settings where abundant labeled data are unavailable, existing Med-MLLMs commonly fail due to their medical reasoning capability bottlenecks: (i) the intrinsic reasoning bottleneck that ignores the details from the medical image; (ii) the extrinsic reasoning bottleneck that fails to incorporate specialized medical knowledge. To address those limitations, we propose AMANDA, a training-free agentic framework that performs medical knowledge augmentation via LLM agents. Specifically, our intrinsic medical knowledge augmentation focuses on coarse-to-fine question decomposition for comprehensive diagnosis, while extrinsic medical knowledge augmentation grounds the reasoning process via biomedical knowledge graph retrieval. Extensive experiments across eight Med-VQA benchmarks demonstrate substantial improvements in both zero-shot and few-shot Med-VQA settings. The code is available at https://github.com/REAL-Lab-NU/AMANDA.
- Abstract(参考訳): 医療用マルチモーダル大規模言語モデル (Med-MLLMs) は, 医療用視覚質問応答 (Med-VQA) において有望であることを示す。
しかし、大量のラベル付きデータが利用できない低リソース環境にデプロイされた場合、既存のMed-MLLMは、医学的推論能力のボトルネックのために一般的に失敗する。
一 医用画像の細部を無視する本質的推論ボトルネック
(II)専門的な医学知識を組み込むのに失敗する外因性推論ボトルネック。
これらの制約に対処するため,LSMエージェントを介して医療知識を増強するトレーニングフリーエージェントフレームワークであるAMANDAを提案する。
具体的には,本研究の内在的医療知識増強は包括的診断のための粗大な質問分解に焦点を当て,外在的医療知識増強はバイオメディカル知識グラフ検索による推論プロセスの根拠となっている。
8つのMed-VQAベンチマークに対する大規模な実験は、ゼロショットと少数ショットのMed-VQA設定の両方で大幅に改善されている。
コードはhttps://github.com/REAL-Lab-NU/AMANDA.comで公開されている。
関連論文リスト
- Lingshu: A Generalist Foundation Model for Unified Multimodal Medical Understanding and Reasoning [57.873833577058]
医療知識の豊富なマルチモーダルデータセットを構築した。
次に医学専門のMLLMであるLingshuを紹介します。
Lingshuは、医療専門知識の組み込みとタスク解決能力の向上のために、マルチステージトレーニングを行っている。
論文 参考訳(メタデータ) (2025-06-08T08:47:30Z) - Fact or Guesswork? Evaluating Large Language Models' Medical Knowledge with Structured One-Hop Judgments [108.55277188617035]
大規模言語モデル(LLM)は、様々な下流タスクドメインで広く採用されているが、実際の医学的知識を直接呼び起こし、適用する能力は、まだ探索されていない。
標準化された語彙と知識グラフの包括的なリポジトリであるUMLS(Unified Medical Language System)から派生したデータセットであるMKJ(Messical Knowledge Judgment dataset)を紹介する。
バイナリ分類フレームワークを通じて、MKJは、簡潔なワンホップ文の妥当性を評価することによって、LCMが基本的な医学的事実を把握できることを評価する。
論文 参考訳(メタデータ) (2025-02-20T05:27:51Z) - ClinKD: Cross-Modal Clinical Knowledge Distiller For Multi-Task Medical Images [4.353855760968461]
画像テキストアライメントを強化し、より効果的な医療知識変換機構を確立するために設計されたクロスモーダル臨床知識障害(ClinKD)。
ClinKDは、Med-VQAタスクでは難しいいくつかのデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-02-09T15:08:10Z) - Improving Retrieval-Augmented Generation in Medicine with Iterative Follow-up Questions [42.73799041840482]
i-MedRAGは、過去の情報検索の試みに基づいてフォローアップクエリを反復的に要求するシステムである。
ゼロショットのi-MedRAGは、GPT-3.5上で既存のプロンプトエンジニアリングと微調整の方法をすべて上回ります。
i-MedRAGは、順応的にフォローアップクエリを問い合わせて推論チェーンを形成し、医学的な質問の詳細な分析を提供する。
論文 参考訳(メタデータ) (2024-08-01T17:18:17Z) - MultifacetEval: Multifaceted Evaluation to Probe LLMs in Mastering Medical Knowledge [4.8004472307210255]
大規模言語モデル (LLMs) はドメイン間で優れており、医療評価ベンチマークで顕著なパフォーマンスを提供している。
しかし、実際の医療シナリオにおける報告されたパフォーマンスと実践的効果の間には、依然として大きなギャップがある。
医療知識のエンコーディングと習得におけるLLMの程度と範囲を検討するための,新しい評価フレームワークであるMultifacetEvalを開発した。
論文 参考訳(メタデータ) (2024-06-05T04:15:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。