論文の概要: Self-MedRAG: a Self-Reflective Hybrid Retrieval-Augmented Generation Framework for Reliable Medical Question Answering
- arxiv url: http://arxiv.org/abs/2601.04531v1
- Date: Thu, 08 Jan 2026 02:56:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.004233
- Title: Self-MedRAG: a Self-Reflective Hybrid Retrieval-Augmented Generation Framework for Reliable Medical Question Answering
- Title(参考訳): Self-MedRAG:信頼性のある医療質問応答のための自己反射型ハイブリッド検索型生成フレームワーク
- Authors: Jessica Ryan, Alexander I. Gumilang, Robert Wiliam, Derwin Suhartono,
- Abstract要約: Self-MedRAGは、臨床推論の反復的仮説検証プロセスを模倣するために設計された自己反射型ハイブリッドフレームワークである。
Sparse(BM25)とReciprocal Rank Fusion(Reciprocal Rank Fusion)による高密度(Contriever)レトリバーを組み合わせたハイブリッド検索戦略を統合している。
ジェネレータを使用して、支持する合理性で回答を生成し、軽量な自己回帰モジュールで評価する。
- 参考スコア(独自算出の注目度): 39.146761527401424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have demonstrated significant potential in medical Question Answering (QA), yet they remain prone to hallucinations and ungrounded reasoning, limiting their reliability in high-stakes clinical scenarios. While Retrieval-Augmented Generation (RAG) mitigates these issues by incorporating external knowledge, conventional single-shot retrieval often fails to resolve complex biomedical queries requiring multi-step inference. To address this, we propose Self-MedRAG, a self-reflective hybrid framework designed to mimic the iterative hypothesis-verification process of clinical reasoning. Self-MedRAG integrates a hybrid retrieval strategy, combining sparse (BM25) and dense (Contriever) retrievers via Reciprocal Rank Fusion (RRF) to maximize evidence coverage. It employs a generator to produce answers with supporting rationales, which are then assessed by a lightweight self-reflection module using Natural Language Inference (NLI) or LLM-based verification. If the rationale lacks sufficient evidentiary support, the system autonomously reformulates the query and iterates to refine the context. We evaluated Self-MedRAG on the MedQA and PubMedQA benchmarks. The results demonstrate that our hybrid retrieval approach significantly outperforms single-retriever baselines. Furthermore, the inclusion of the self-reflective loop yielded substantial gains, increasing accuracy on MedQA from 80.00% to 83.33% and on PubMedQA from 69.10% to 79.82%. These findings confirm that integrating hybrid retrieval with iterative, evidence-based self-reflection effectively reduces unsupported claims and enhances the clinical reliability of LLM-based systems.
- Abstract(参考訳): 大言語モデル (LLMs) は、医学的質問回答 (QA) において有意な可能性を示しているが、幻覚や根拠のない推論の傾向があり、高い臨床シナリオにおいて信頼性を制限している。
Retrieval-Augmented Generation (RAG) は外部知識を取り入れてこれらの問題を緩和するが、従来の単発検索は多段階推論を必要とする複雑なバイオメディカルクエリの解決に失敗することが多い。
そこで本稿では,臨床推論の反復的仮説検証過程を模倣した自己反射型ハイブリッドフレームワークであるSelf-MedRAGを提案する。
Self-MedRAGは、Sparse(BM25)とReciprocal Rank Fusion(RRF)を介して密集した(Contriever)レトリバーを組み合わせたハイブリッド検索戦略を統合し、エビデンスカバレッジを最大化する。
ジェネレータを使用して、支持する有理性を持つ回答を生成し、自然言語推論(NLI)やLLMベースの検証を使用して軽量な自己回帰モジュールによって評価される。
合理的なサポートが不十分な場合、システムはクエリを自動で修正し、コンテキストを洗練するために反復する。
我々はMedQAとPubMedQAのベンチマークで自己MedRAGを評価した。
その結果,我々のハイブリッド検索手法はシングルレトリバーベースラインを著しく上回ることがわかった。
さらに、自己反射ループが組み込まれたことにより、MedQAの精度は80.00%から83.33%に向上し、PubMedQAの精度は69.10%から79.82%に向上した。
これらの結果から,ハイブリッド検索を反復的,エビデンスに基づく自己回帰と組み合わせることで,否定的クレームを効果的に低減し,LCMベースのシステムの臨床的信頼性を高めることが確認された。
関連論文リスト
- Optimizing Medical Question-Answering Systems: A Comparative Study of Fine-Tuned and Zero-Shot Large Language Models with RAG Framework [0.0]
本稿では,ドメイン固有知識検索とオープンソース LLM を組み合わせたRAG (Research-augmented Generation) ベースの医療QAシステムを提案する。
ローランド適応 (LoRA) を用いて, 最先端のオープンLCM (LLaMA2 と Falcon) を2つ微調整し, 効率的なドメイン特殊化を行う。
我々の微調整LLaMA2モデルはPubMedQAで71.8%の精度を実現し、55.4%のゼロショットベースラインを大幅に改善した。
論文 参考訳(メタデータ) (2025-12-05T16:38:47Z) - MedAlign: A Synergistic Framework of Multimodal Preference Optimization and Federated Meta-Cognitive Reasoning [52.064286116035134]
我々はMed-VQA(Med-VQA)のための視覚的LVLM応答を保証するフレームワークであるMedAlignを開発した。
まず、優先学習を視覚的コンテキストに合わせるために、マルチモーダルな直接選好最適化(mDPO)の目的を提案する。
次に、画像とテキストの類似性を生かし、クエリを専門的でコンテキスト拡張されたLVLMにルーティングする検索型混合処理(RA-MoE)アーキテクチャを設計する。
論文 参考訳(メタデータ) (2025-10-24T02:11:05Z) - MedTrust-RAG: Evidence Verification and Trust Alignment for Biomedical Question Answering [21.855579328680246]
MedTrust-Guided Iterative RAGは,医療用QAにおける事実整合性と幻覚を高めるためのフレームワークである。
第一に、検索された医療文書に、すべての生成されたコンテンツを明示的に根拠付けることを要求することにより、引用認識推論を強制する。
第2に、検証エージェントが証拠の妥当性を評価する反復的な検索検証プロセスを採用する。
論文 参考訳(メタデータ) (2025-10-16T07:59:11Z) - MedReflect: Teaching Medical LLMs to Self-Improve via Reflective Correction [23.71420855072473]
MedReflectは、医師のようなリフレクティブ思考モードで、大きな言語モデルに刺激を与えるように設計されたフレームワークである。
MedReflectは費用効率の良い医療データセット構築を可能にする。
以上の結果から, LLM が自己反射と自己改善によって, 専門的な医療問題の解決を学べることを示す。
論文 参考訳(メタデータ) (2025-10-04T06:00:48Z) - Bias Evaluation and Mitigation in Retrieval-Augmented Medical Question-Answering Systems [4.031787614742573]
本研究は、複数のQAベンチマークで医療用RAGパイプライン内の人口統計バイアスを系統的に評価する。
我々は、思考の推論の連鎖、対実的フィルタリング、適応的即興改善、多数決の集約など、特定バイアスに対処するために、いくつかのバイアス緩和戦略を実装し、比較する。
論文 参考訳(メタデータ) (2025-03-19T17:36:35Z) - Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - SeRTS: Self-Rewarding Tree Search for Biomedical Retrieval-Augmented Generation [50.26966969163348]
大規模言語モデル(LLM)は,検索増強世代(RAG)の進展に伴い,生物医学領域において大きな可能性を示した。
既存の検索強化アプローチは、様々なクエリやドキュメント、特に医療知識クエリに対処する上で、課題に直面している。
モンテカルロ木探索(MCTS)と自己回帰パラダイムに基づく自己回帰木探索(SeRTS)を提案する。
論文 参考訳(メタデータ) (2024-06-17T06:48:31Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。