論文の概要: MedTrust-RAG: Evidence Verification and Trust Alignment for Biomedical Question Answering
- arxiv url: http://arxiv.org/abs/2510.14400v1
- Date: Thu, 16 Oct 2025 07:59:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.769146
- Title: MedTrust-RAG: Evidence Verification and Trust Alignment for Biomedical Question Answering
- Title(参考訳): MedTrust-RAG:バイオメディカル質問応答のための証拠検証と信頼アライメント
- Authors: Yingpeng Ning, Yuanyuan Sun, Ling Luo, Yanhua Wang, Yuchen Pan, Hongfei Lin,
- Abstract要約: MedTrust-Guided Iterative RAGは,医療用QAにおける事実整合性と幻覚を高めるためのフレームワークである。
第一に、検索された医療文書に、すべての生成されたコンテンツを明示的に根拠付けることを要求することにより、引用認識推論を強制する。
第2に、検証エージェントが証拠の妥当性を評価する反復的な検索検証プロセスを採用する。
第3に、実証された正の例と幻覚を意識した負のサンプルを組み合わせたMedTrust-Align Moduleを統合する。
- 参考スコア(独自算出の注目度): 21.855579328680246
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Biomedical question answering (QA) requires accurate interpretation of complex medical knowledge. Large language models (LLMs) have shown promising capabilities in this domain, with retrieval-augmented generation (RAG) systems enhancing performance by incorporating external medical literature. However, RAG-based approaches in biomedical QA suffer from hallucinations due to post-retrieval noise and insufficient verification of retrieved evidence, undermining response reliability. We propose MedTrust-Guided Iterative RAG, a framework designed to enhance factual consistency and mitigate hallucinations in medical QA. Our method introduces three key innovations. First, it enforces citation-aware reasoning by requiring all generated content to be explicitly grounded in retrieved medical documents, with structured Negative Knowledge Assertions used when evidence is insufficient. Second, it employs an iterative retrieval-verification process, where a verification agent assesses evidence adequacy and refines queries through Medical Gap Analysis until reliable information is obtained. Third, it integrates the MedTrust-Align Module (MTAM) that combines verified positive examples with hallucination-aware negative samples, leveraging Direct Preference Optimization to reinforce citation-grounded reasoning while penalizing hallucination-prone response patterns. Experiments on MedMCQA, MedQA, and MMLU-Med demonstrate that our approach consistently outperforms competitive baselines across multiple model architectures, achieving the best average accuracy with gains of 2.7% for LLaMA3.1-8B-Instruct and 2.4% for Qwen3-8B.
- Abstract(参考訳): 医学的質問応答 (QA) は複雑な医学的知識の正確な解釈を必要とする。
大規模言語モデル (LLM) はこの領域で有望な能力を示しており、検索強化世代 (RAG) システムは外部医療文献を組み込むことで性能を向上させる。
しかし, バイオメディカルQAにおけるRAGに基づくアプローチは, 検索後のノイズによる幻覚や, 回収された証拠の検証が不十分で, 応答信頼性が損なわれている。
本稿では,MedTrust-Guided Iterative RAGを提案する。
我々の手法は3つの重要な革新をもたらす。
第一に、すべての生成されたコンテンツが検索された医療文書に明示的に根拠付けされることを要求し、証拠が不十分な場合に使用される否定的知識推論を構造化することにより、引用認識推論を強制する。
第2に、検証エージェントが証拠の妥当性を評価し、信頼できる情報が得られるまで医療ギャップ分析によりクエリを精査する反復的検索検証プロセスを採用する。
第三に、MedTrust-Align Module (MTAM) を統合することで、実証された正の例と幻覚を意識した負のサンプルを結合し、直接選好最適化を利用して、幻覚に起因した応答パターンをペナル化しながら、引用基底推論を補強する。
MedMCQA, MedQA, MMLU-Medの実験により, 本手法は複数のモデルアーキテクチャにおける競争ベースラインを一貫して上回り, LLaMA3.1-8B-インストラクタでは2.7%, Qwen3-8Bでは2.4%のゲインで最高の平均精度を達成した。
関連論文リスト
- CaresAI at BioCreative IX Track 1 -- LLM for Biomedical QA [3.222047196930981]
大規模言語モデル(LLM)は、様々な領域にわたる正確な質問応答において、ますます明白になっている。
本稿では,BioCreative IX共有タスクのMedHopQAトラックへのアプローチについて述べる。
短い解答と長い解答を組み合わせた微調整、短い解答のみ、長い解答のみの3つの実験的な設定が検討されている。
論文 参考訳(メタデータ) (2025-08-31T11:40:02Z) - Knowing or Guessing? Robust Medical Visual Question Answering via Joint Consistency and Contrastive Learning [34.6490677122246]
医用視覚質問応答における不安定性について,現在の医用視覚言語モデル (Med-VLMs) を用いて検討した。
本稿では,知識適応型一貫性学習とバイアス認識型コントラスト学習を統合した一貫性・コントラスト学習(CCL)を提案する。
CCLは3つの人気のあるVQAベンチマークでSOTAのパフォーマンスを達成し、特にRoMedテストセットで解の一貫性を50%向上させる。
論文 参考訳(メタデータ) (2025-08-26T05:21:19Z) - MedCoT-RAG: Causal Chain-of-Thought RAG for Medical Question Answering [4.285647375182588]
大規模言語モデル (LLM) は医学的な疑問に答える上で有望であるが、幻覚や浅い推論に苦しむことが多い。
Retrieval-augmented Generation (RAG)は、外部の医療知識でLSMを強化するための実用的でプライバシー保護の手段を提供する。
MedCoT-RAGは、因果認識ドキュメント検索と構造化チェーン・オブ・シークレット・プロンプトを組み合わせたドメイン固有フレームワークである。
論文 参考訳(メタデータ) (2025-08-20T05:43:26Z) - MedKGent: A Large Language Model Agent Framework for Constructing Temporally Evolving Medical Knowledge Graph [57.54231831309079]
我々は、時間的に進化する医療知識グラフを構築するためのフレームワークであるMedKGentを紹介する。
生医学的知識の出現を, 微粒な日々の時系列でシミュレートする。
結果として得られるKGは156,275個のエンティティと2,971,384個のリレーショナルトリプルを含む。
論文 参考訳(メタデータ) (2025-08-17T15:14:03Z) - MIRA: A Novel Framework for Fusing Modalities in Medical RAG [6.044279952668295]
MLLMにおける実測精度の最適化を目的としたMIRA(Multimodal Intelligent Retrieval and Augmentation)フレームワークを提案する。
MIRAは,(1)検索コンテキスト数を動的に調整して事実リスクを管理する校正再考・再配置モジュール,(2)画像埋め込みと医用知識ベースを統合した医用RAGフレームワークと,効率的なマルチモーダル推論を行うクエリ・リライトモジュールの2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2025-07-10T16:33:50Z) - Talk Before You Retrieve: Agent-Led Discussions for Better RAG in Medical QA [17.823588070044217]
本稿では,医療質問応答システムを強化するためのプラグアンドプレイモジュールであるDisdisuss-RAGを提案する。
本手法では,多ターンブレインストーミングをエミュレートする医療専門家のチームを編成し,検索内容の関連性を向上する要約エージェントを提案する。
4つのベンチマーク医学QAデータセットによる実験結果から、DEC-RAGはMedRAGより一貫して優れていた。
論文 参考訳(メタデータ) (2025-04-30T01:37:44Z) - Retrieval-Augmented Generation with Conflicting Evidence [57.66282463340297]
大規模言語モデル (LLM) エージェントは、応答の事実性を改善するために、検索強化世代 (RAG) をますます採用している。
実際には、これらのシステムは曖昧なユーザクエリを処理し、複数のソースからの情報に衝突する可能性がある。
RAMDocs(Retrieval with Ambiguity and Misinformation in Documents)は,ユーザクエリのエビデンスを矛盾させるような,複雑で現実的なシナリオをシミュレートする新しいデータセットである。
論文 参考訳(メタデータ) (2025-04-17T16:46:11Z) - Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - Leveraging Generative AI for Clinical Evidence Summarization Needs to Ensure Trustworthiness [47.51360338851017]
エビデンスベースの医療は、医療の意思決定と実践を最大限に活用することで、医療の質を向上させることを約束する。
様々な情報源から得ることができる医学的証拠の急速な成長は、明らかな情報の収集、評価、合成に挑戦する。
大規模言語モデルによって実証された、生成AIの最近の進歩は、困難な作業の促進を約束する。
論文 参考訳(メタデータ) (2023-11-19T03:29:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。