論文の概要: From Retrieval to Generation: Unifying External and Parametric Knowledge for Medical Question Answering
- arxiv url: http://arxiv.org/abs/2510.18297v1
- Date: Tue, 21 Oct 2025 04:58:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.927076
- Title: From Retrieval to Generation: Unifying External and Parametric Knowledge for Medical Question Answering
- Title(参考訳): 検索から生成へ:医学的質問に対する外部知識とパラメトリック知識の統合
- Authors: Lei Li, Xiao Zhou, Yingying Zhang, Xian Wu,
- Abstract要約: 既存のアプローチは一般的に2つのカテゴリに分類される: 検索型生成(RAG)と生成型生成(GAG)である。
医用QAのための外部およびパラメトリック知識をシームレスに統合する統合検索生成拡張フレームワークであるMedRGAGを提案する。
- 参考スコア(独自算出の注目度): 26.91142737000078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical question answering (QA) requires extensive access to domain-specific knowledge. A promising direction is to enhance large language models (LLMs) with external knowledge retrieved from medical corpora or parametric knowledge stored in model parameters. Existing approaches typically fall into two categories: Retrieval-Augmented Generation (RAG), which grounds model reasoning on externally retrieved evidence, and Generation-Augmented Generation (GAG), which depends solely on the models internal knowledge to generate contextual documents. However, RAG often suffers from noisy or incomplete retrieval, while GAG is vulnerable to hallucinated or inaccurate information due to unconstrained generation. Both issues can mislead reasoning and undermine answer reliability. To address these challenges, we propose MedRGAG, a unified retrieval-generation augmented framework that seamlessly integrates external and parametric knowledge for medical QA. MedRGAG comprises two key modules: Knowledge-Guided Context Completion (KGCC), which directs the generator to produce background documents that complement the missing knowledge revealed by retrieval; and Knowledge-Aware Document Selection (KADS), which adaptively selects an optimal combination of retrieved and generated documents to form concise yet comprehensive evidence for answer generation. Extensive experiments on five medical QA benchmarks demonstrate that MedRGAG achieves a 12.5% improvement over MedRAG and a 4.5% gain over MedGENIE, highlighting the effectiveness of unifying retrieval and generation for knowledge-intensive reasoning. Our code and data are publicly available at https://anonymous.4open.science/r/MedRGAG
- Abstract(参考訳): 医学的質問応答 (QA) には、ドメイン固有の知識への広範なアクセスが必要である。
有望な方向性は、医療コーパスやモデルパラメータに格納されたパラメトリック知識から得られる外部知識を用いて、大きな言語モデル(LLM)を強化することである。
既存のアプローチは通常、2つのカテゴリに分類される: 外部から取得した証拠に基づくモデル推論を行う検索型拡張生成(RAG)と、文脈文書を生成するためのモデル内部知識にのみ依存する生成型生成(GAG)である。
しかしながら、RAGはノイズや不完全検索に悩まされることが多いが、GAGは未制約世代による幻覚や不正確な情報に対して脆弱である。
どちらの問題も推論を誤解させ、答えの信頼性を損なう可能性がある。
これらの課題に対処するため、医用QAのための外部およびパラメトリック知識をシームレスに統合する統合検索世代拡張フレームワークであるMedRGAGを提案する。
MedRGAGは2つの主要なモジュールから構成される: 知識誘導コンテキストコンプリート(KGCC) ジェネレータは、検索によって露呈された知識を補完する背景文書を生成するよう指示する。
5つの医学QAベンチマークの大規模な実験により、MedRGAGはMedRAGよりも12.5%、MedGENIEより4.5%向上し、知識集約的な推論のための検索と生成の統一の有効性を強調した。
私たちのコードとデータはhttps://anonymous.4open.science/r/MedRGAGで公開されています。
関連論文リスト
- MedTrust-RAG: Evidence Verification and Trust Alignment for Biomedical Question Answering [21.855579328680246]
MedTrust-Guided Iterative RAGは,医療用QAにおける事実整合性と幻覚を高めるためのフレームワークである。
第一に、検索された医療文書に、すべての生成されたコンテンツを明示的に根拠付けることを要求することにより、引用認識推論を強制する。
第2に、検証エージェントが証拠の妥当性を評価する反復的な検索検証プロセスを採用する。
論文 参考訳(メタデータ) (2025-10-16T07:59:11Z) - RAR$^2$: Retrieval-Augmented Medical Reasoning via Thought-Driven Retrieval [25.425621641226815]
大きな言語モデル(LLM)は、様々な医療ベンチマークで有望なパフォーマンスを示している。
RAGは、外部医療情報を取り入れることで、知識ギャップと幻覚を緩和するための重要なアプローチとして登場した。
我々は、Reasoning-Augmented RetrievalとRetrieval-Augmented Reasoningを改善する共同学習フレームワークであるRAR$2$を提案する。
論文 参考訳(メタデータ) (2025-09-24T05:35:57Z) - MedGemma Technical Report [75.88152277443179]
MedGemmaは、Gemma 3 4Bと27Bをベースとした医療ビジョン言語基盤モデルの集合体である。
MedGemmaは、画像とテキストの高度な医学的理解と推論を実証する。
また、SigLIPから派生した医用目視エンコーダであるMedSigLIPを紹介する。
論文 参考訳(メタデータ) (2025-07-07T17:01:44Z) - Talk Before You Retrieve: Agent-Led Discussions for Better RAG in Medical QA [17.823588070044217]
本稿では,医療質問応答システムを強化するためのプラグアンドプレイモジュールであるDisdisuss-RAGを提案する。
本手法では,多ターンブレインストーミングをエミュレートする医療専門家のチームを編成し,検索内容の関連性を向上する要約エージェントを提案する。
4つのベンチマーク医学QAデータセットによる実験結果から、DEC-RAGはMedRAGより一貫して優れていた。
論文 参考訳(メタデータ) (2025-04-30T01:37:44Z) - RGAR: Recurrence Generation-augmented Retrieval for Factual-aware Medical Question Answering [29.065294682044]
現在のパラダイムであるRetrieval-Augmented Generation (RAG)は、大規模なコーパス検索を通じて専門的な医療知識を取得する。
本稿では,2つの情報源から関連する事実知識と概念知識の両方を検索する再帰生成拡張検索フレームワークであるRGARを紹介する。
論文 参考訳(メタデータ) (2025-02-19T01:50:10Z) - Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - MMed-RAG: Versatile Multimodal RAG System for Medical Vision Language Models [49.765466293296186]
近年,Med-LVLM (Med-LVLMs) の進歩により,対話型診断ツールの新たな可能性が高まっている。
Med-LVLMは、しばしば事実の幻覚に悩まされ、誤った診断につながることがある。
我々は,Med-LVLMの現実性を高めるために,多目的マルチモーダルRAGシステムMMed-RAGを提案する。
論文 参考訳(メタデータ) (2024-10-16T23:03:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。