論文の概要: MedTrust-RAG: Evidence Verification and Trust Alignment for Biomedical Question Answering
- arxiv url: http://arxiv.org/abs/2510.14400v2
- Date: Sat, 18 Oct 2025 11:57:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.687572
- Title: MedTrust-RAG: Evidence Verification and Trust Alignment for Biomedical Question Answering
- Title(参考訳): MedTrust-RAG:バイオメディカル質問応答のための証拠検証と信頼アライメント
- Authors: Yingpeng Ning, Yuanyuan Sun, Ling Luo, Yanhua Wang, Yuchen Pan, Hongfei Lin,
- Abstract要約: MedTrust-Guided Iterative RAGは,医療用QAにおける事実整合性と幻覚を高めるためのフレームワークである。
第一に、検索された医療文書に、すべての生成されたコンテンツを明示的に根拠付けることを要求することにより、引用認識推論を強制する。
第2に、検証エージェントが証拠の妥当性を評価する反復的な検索検証プロセスを採用する。
- 参考スコア(独自算出の注目度): 21.855579328680246
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Biomedical question answering (QA) requires accurate interpretation of complex medical knowledge. Large language models (LLMs) have shown promising capabilities in this domain, with retrieval-augmented generation (RAG) systems enhancing performance by incorporating external medical literature. However, RAG-based approaches in biomedical QA suffer from hallucinations due to post-retrieval noise and insufficient verification of retrieved evidence, undermining response reliability. We propose MedTrust-Guided Iterative RAG, a framework designed to enhance factual consistency and mitigate hallucinations in medical QA. Our method introduces three key innovations. First, it enforces citation-aware reasoning by requiring all generated content to be explicitly grounded in retrieved medical documents, with structured Negative Knowledge Assertions used when evidence is insufficient. Second, it employs an iterative retrieval-verification process, where a verification agent assesses evidence adequacy and refines queries through Medical Gap Analysis until reliable information is obtained. Third, it integrates the MedTrust-Align Module (MTAM) that combines verified positive examples with hallucination-aware negative samples, leveraging Direct Preference Optimization to reinforce citation-grounded reasoning while penalizing hallucination-prone response patterns.
- Abstract(参考訳): 医学的質問応答 (QA) は複雑な医学的知識の正確な解釈を必要とする。
大規模言語モデル (LLM) はこの領域で有望な能力を示しており、検索強化世代 (RAG) システムは外部医療文献を組み込むことで性能を向上させる。
しかし, バイオメディカルQAにおけるRAGに基づくアプローチは, 検索後のノイズによる幻覚や, 回収された証拠の検証が不十分で, 応答信頼性が損なわれている。
本稿では,MedTrust-Guided Iterative RAGを提案する。
我々の手法は3つの重要な革新をもたらす。
第一に、すべての生成されたコンテンツが検索された医療文書に明示的に根拠付けされることを要求し、証拠が不十分な場合に使用される否定的知識推論を構造化することにより、引用認識推論を強制する。
第2に、検証エージェントが証拠の妥当性を評価し、信頼できる情報が得られるまで医療ギャップ分析によりクエリを精査する反復的検索検証プロセスを採用する。
第3に、MedTrust-Align Module (MTAM) を統合し、実証された正の例と幻覚を意識した負のサンプルを組み合わせる。
関連論文リスト
- Towards Reliable Medical LLMs: Benchmarking and Enhancing Confidence Estimation of Large Language Models in Medical Consultation [97.36081721024728]
本稿では,現実的な医療相談におけるマルチターンインタラクションの信頼性を評価するための最初のベンチマークを提案する。
本ベンチマークでは,3種類の医療データを統合し,診断を行う。
本稿では,エビデンスを基盤とした言語自己評価フレームワークであるMedConfを紹介する。
論文 参考訳(メタデータ) (2026-01-22T04:51:39Z) - MedRAGChecker: Claim-Level Verification for Biomedical Retrieval-Augmented Generation [8.37586466142299]
バイオメディカルRAGのためのクレームレベル検証および診断フレームワークであるMedRAGCheckerを紹介する。
MedRAGCheckerは、質問、証拠の回収、そして生成された回答を与えられた上で、答えを原子的クレームに分解し、クレームのサポートを見積もる。
我々は、MedRAGCheckerが確実にフラグを解除し、主張を否定し、ジェネレータ間で異なるリスクプロファイルを明らかにしていることを示す。
論文 参考訳(メタデータ) (2026-01-10T10:40:42Z) - Self-MedRAG: a Self-Reflective Hybrid Retrieval-Augmented Generation Framework for Reliable Medical Question Answering [39.146761527401424]
Self-MedRAGは、臨床推論の反復的仮説検証プロセスを模倣するために設計された自己反射型ハイブリッドフレームワークである。
Sparse(BM25)とReciprocal Rank Fusion(Reciprocal Rank Fusion)による高密度(Contriever)レトリバーを組み合わせたハイブリッド検索戦略を統合している。
ジェネレータを使用して、支持する合理性で回答を生成し、軽量な自己回帰モジュールで評価する。
論文 参考訳(メタデータ) (2026-01-08T02:56:04Z) - When Evidence Contradicts: Toward Safer Retrieval-Augmented Generation in Healthcare [0.05249805590164902]
本研究では,医学関連クエリに対する応答生成における5つの大規模言語モデル(LLM)の性能について検討する。
以上の結果から,非常に類似した抽象概念間の矛盾は,実際に性能を低下させ,不整合を招き,モデル解答の事実的精度を低下させることが示された。
論文 参考訳(メタデータ) (2025-11-10T03:27:54Z) - From Retrieval to Generation: Unifying External and Parametric Knowledge for Medical Question Answering [26.91142737000078]
既存のアプローチは一般的に2つのカテゴリに分類される: 検索型生成(RAG)と生成型生成(GAG)である。
医用QAのための外部およびパラメトリック知識をシームレスに統合する統合検索生成拡張フレームワークであるMedRGAGを提案する。
論文 参考訳(メタデータ) (2025-10-21T04:58:29Z) - VeriCite: Towards Reliable Citations in Retrieval-Augmented Generation via Rigorous Verification [107.75781898355562]
証拠を厳格に検証し,回答の帰属性を高めるために設計された,VeriCiteと呼ばれる新しいフレームワークを紹介する。
我々は,5つのオープンソースLCMと4つのデータセットを対象とした実験を行い,VeriCiteが回答の正しさを維持しつつ,引用品質を大幅に向上できることを実証した。
論文 参考訳(メタデータ) (2025-10-13T13:38:54Z) - Evaluating the Robustness of Retrieval-Augmented Generation to Adversarial Evidence in the Health Domain [8.094811345546118]
Retrieval augmented generation (RAG) システムは、検索された証拠や文脈を支援として提供することにより、Large Language Model (LLM) の応答を現実的に根拠付ける方法を提供する。
LLMは、回収された証拠に存在する誤報を吸収し、再生する。
この問題は、抽出された証拠が、誤報を公布することを明示的に意図した敵対的な材料を含むと拡大される。
論文 参考訳(メタデータ) (2025-09-04T00:45:58Z) - CaresAI at BioCreative IX Track 1 -- LLM for Biomedical QA [3.222047196930981]
大規模言語モデル(LLM)は、様々な領域にわたる正確な質問応答において、ますます明白になっている。
本稿では,BioCreative IX共有タスクのMedHopQAトラックへのアプローチについて述べる。
短い解答と長い解答を組み合わせた微調整、短い解答のみ、長い解答のみの3つの実験的な設定が検討されている。
論文 参考訳(メタデータ) (2025-08-31T11:40:02Z) - Knowing or Guessing? Robust Medical Visual Question Answering via Joint Consistency and Contrastive Learning [34.6490677122246]
医用視覚質問応答における不安定性について,現在の医用視覚言語モデル (Med-VLMs) を用いて検討した。
本稿では,知識適応型一貫性学習とバイアス認識型コントラスト学習を統合した一貫性・コントラスト学習(CCL)を提案する。
CCLは3つの人気のあるVQAベンチマークでSOTAのパフォーマンスを達成し、特にRoMedテストセットで解の一貫性を50%向上させる。
論文 参考訳(メタデータ) (2025-08-26T05:21:19Z) - MedCoT-RAG: Causal Chain-of-Thought RAG for Medical Question Answering [4.285647375182588]
大規模言語モデル (LLM) は医学的な疑問に答える上で有望であるが、幻覚や浅い推論に苦しむことが多い。
Retrieval-augmented Generation (RAG)は、外部の医療知識でLSMを強化するための実用的でプライバシー保護の手段を提供する。
MedCoT-RAGは、因果認識ドキュメント検索と構造化チェーン・オブ・シークレット・プロンプトを組み合わせたドメイン固有フレームワークである。
論文 参考訳(メタデータ) (2025-08-20T05:43:26Z) - MedKGent: A Large Language Model Agent Framework for Constructing Temporally Evolving Medical Knowledge Graph [57.54231831309079]
我々は、時間的に進化する医療知識グラフを構築するためのフレームワークであるMedKGentを紹介する。
生医学的知識の出現を, 微粒な日々の時系列でシミュレートする。
結果として得られるKGは156,275個のエンティティと2,971,384個のリレーショナルトリプルを含む。
論文 参考訳(メタデータ) (2025-08-17T15:14:03Z) - MIRA: A Novel Framework for Fusing Modalities in Medical RAG [6.044279952668295]
MLLMにおける実測精度の最適化を目的としたMIRA(Multimodal Intelligent Retrieval and Augmentation)フレームワークを提案する。
MIRAは,(1)検索コンテキスト数を動的に調整して事実リスクを管理する校正再考・再配置モジュール,(2)画像埋め込みと医用知識ベースを統合した医用RAGフレームワークと,効率的なマルチモーダル推論を行うクエリ・リライトモジュールの2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2025-07-10T16:33:50Z) - Faithfulness-Aware Uncertainty Quantification for Fact-Checking the Output of Retrieval Augmented Generation [108.13261761812517]
本稿では,RAG出力における幻覚検出の新しい手法であるFRANQ(Fithfulness-based Retrieval Augmented Uncertainty Quantification)を紹介する。
本稿では,事実性と忠実性の両方に注釈を付したQAデータセットを提案する。
論文 参考訳(メタデータ) (2025-05-27T11:56:59Z) - Talk Before You Retrieve: Agent-Led Discussions for Better RAG in Medical QA [17.823588070044217]
本稿では,医療質問応答システムを強化するためのプラグアンドプレイモジュールであるDisdisuss-RAGを提案する。
本手法では,多ターンブレインストーミングをエミュレートする医療専門家のチームを編成し,検索内容の関連性を向上する要約エージェントを提案する。
4つのベンチマーク医学QAデータセットによる実験結果から、DEC-RAGはMedRAGより一貫して優れていた。
論文 参考訳(メタデータ) (2025-04-30T01:37:44Z) - Retrieval-Augmented Generation with Conflicting Evidence [57.66282463340297]
大規模言語モデル (LLM) エージェントは、応答の事実性を改善するために、検索強化世代 (RAG) をますます採用している。
実際には、これらのシステムは曖昧なユーザクエリを処理し、複数のソースからの情報に衝突する可能性がある。
RAMDocs(Retrieval with Ambiguity and Misinformation in Documents)は,ユーザクエリのエビデンスを矛盾させるような,複雑で現実的なシナリオをシミュレートする新しいデータセットである。
論文 参考訳(メタデータ) (2025-04-17T16:46:11Z) - Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - Uncertainty-aware Medical Diagnostic Phrase Identification and Grounding [72.18719355481052]
MRG(Messical Report Grounding)と呼ばれる新しい課題について紹介する。
MRGは医療報告から診断フレーズとその対応する接地箱を直接エンドツーエンドで識別することを目的としている。
マルチモーダルな大規模言語モデルを用いて診断フレーズを予測する,堅牢で信頼性の高いフレームワークである uMedGround を提案する。
論文 参考訳(メタデータ) (2024-04-10T07:41:35Z) - Leveraging Generative AI for Clinical Evidence Summarization Needs to Ensure Trustworthiness [47.51360338851017]
エビデンスベースの医療は、医療の意思決定と実践を最大限に活用することで、医療の質を向上させることを約束する。
様々な情報源から得ることができる医学的証拠の急速な成長は、明らかな情報の収集、評価、合成に挑戦する。
大規模言語モデルによって実証された、生成AIの最近の進歩は、困難な作業の促進を約束する。
論文 参考訳(メタデータ) (2023-11-19T03:29:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。