論文の概要: RAR$^2$: Retrieval-Augmented Medical Reasoning via Thought-Driven Retrieval
- arxiv url: http://arxiv.org/abs/2509.22713v1
- Date: Wed, 24 Sep 2025 05:35:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.81783
- Title: RAR$^2$: Retrieval-Augmented Medical Reasoning via Thought-Driven Retrieval
- Title(参考訳): RAR$^2$:Retrieval-Augmented Medical Reasoning via Thought-Driven Retrieval
- Authors: Kaishuai Xu, Wenjun Hou, Yi Cheng, Wenjie Li,
- Abstract要約: 大きな言語モデル(LLM)は、様々な医療ベンチマークで有望なパフォーマンスを示している。
RAGは、外部医療情報を取り入れることで、知識ギャップと幻覚を緩和するための重要なアプローチとして登場した。
我々は、Reasoning-Augmented RetrievalとRetrieval-Augmented Reasoningを改善する共同学習フレームワークであるRAR$2$を提案する。
- 参考スコア(独自算出の注目度): 25.425621641226815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have shown promising performance on diverse medical benchmarks, highlighting their potential in supporting real-world clinical tasks. Retrieval-Augmented Generation (RAG) has emerged as a key approach for mitigating knowledge gaps and hallucinations by incorporating external medical information. However, RAG still struggles with complex medical questions that require intensive reasoning, as surface-level input often fails to reflect the true knowledge needs of the task. Existing methods typically focus on refining queries without explicitly modeling the reasoning process, limiting their ability to retrieve and integrate clinically relevant knowledge. In this work, we propose RAR$^2$, a joint learning framework that improves both Reasoning-Augmented Retrieval and Retrieval-Augmented Reasoning. RAR$^2$ constructs a thought process to uncover implicit knowledge requirements and uses it to guide retrieval and answer generation. We build a training dataset of mixed preference pairs and apply Direct Preference Optimization (DPO) to train the model. Moreover, we design two test-time scaling strategies to explore the boundaries of our framework. Experiments demonstrate the effectiveness of RAR$^2$ across several biomedical question answering datasets, outperforming RAG baselines with or without fine-tuning.
- Abstract(参考訳): 大規模言語モデル(LLM)は、様々な医療ベンチマークで有望なパフォーマンスを示し、実際の臨床タスクをサポートする可能性を強調している。
検索・拡張世代(RAG)は,外部医療情報を取り入れることで,知識ギャップと幻覚を緩和するための重要なアプローチとして登場した。
しかしながら、RAGは、表面レベルの入力がタスクの真の知識要求を反映しない場合が多いため、集中的な推論を必要とする複雑な医学的問題に苦慮している。
既存の手法は通常、推論プロセスを明示的にモデル化することなくクエリの精細化に重点を置いており、臨床的に関連する知識を検索し統合する能力を制限する。
本研究では,Reasoning-Augmented RetrievalとRetrieval-Augmented Reasoningの両方を改善した共同学習フレームワークであるRAR$^2$を提案する。
RAR$^2$は、暗黙の知識要件を明らかにするための思考プロセスを構築し、それを検索と回答生成のガイドに利用する。
我々は、混合選好ペアのトレーニングデータセットを構築し、モデルをトレーニングするために直接選好最適化(DPO)を適用します。
さらに、フレームワークの境界を探索する2つのテストタイムスケーリング戦略を設計する。
実験では、RAR$^2$がいくつかのバイオメディカル質問応答データセットに対して有効であることを示し、RAGベースラインを微調整の有無で上回っている。
関連論文リスト
- RAD: Towards Trustworthy Retrieval-Augmented Multi-modal Clinical Diagnosis [56.373297358647655]
Retrieval-Augmented Diagnosis (RAD)は、下流タスクで直接マルチモーダルモデルに外部知識を注入する新しいフレームワークである。
RADは、複数の医療ソースからの疾患中心の知識の検索と改善、ガイドライン強化コントラスト損失トランスフォーマー、デュアルデコーダの3つの主要なメカニズムで機能する。
論文 参考訳(メタデータ) (2025-09-24T10:36:14Z) - MedCoT-RAG: Causal Chain-of-Thought RAG for Medical Question Answering [4.285647375182588]
大規模言語モデル (LLM) は医学的な疑問に答える上で有望であるが、幻覚や浅い推論に苦しむことが多い。
Retrieval-augmented Generation (RAG)は、外部の医療知識でLSMを強化するための実用的でプライバシー保護の手段を提供する。
MedCoT-RAGは、因果認識ドキュメント検索と構造化チェーン・オブ・シークレット・プロンプトを組み合わせたドメイン固有フレームワークである。
論文 参考訳(メタデータ) (2025-08-20T05:43:26Z) - Medical Reasoning in the Era of LLMs: A Systematic Review of Enhancement Techniques and Applications [59.721265428780946]
医学における大きな言語モデル(LLM)は印象的な能力を実現しているが、体系的で透明で検証可能な推論を行う能力に重大なギャップが残っている。
本稿は、この新興分野に関する最初の体系的なレビューを提供する。
本稿では,学習時間戦略とテスト時間メカニズムに分類した推論強化手法の分類法を提案する。
論文 参考訳(メタデータ) (2025-08-01T14:41:31Z) - Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.10441885629787]
Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。
逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。
この調査は両鎖を統一的推論-検索の観点から合成する。
論文 参考訳(メタデータ) (2025-07-13T03:29:41Z) - Talk Before You Retrieve: Agent-Led Discussions for Better RAG in Medical QA [17.823588070044217]
本稿では,医療質問応答システムを強化するためのプラグアンドプレイモジュールであるDisdisuss-RAGを提案する。
本手法では,多ターンブレインストーミングをエミュレートする医療専門家のチームを編成し,検索内容の関連性を向上する要約エージェントを提案する。
4つのベンチマーク医学QAデータセットによる実験結果から、DEC-RAGはMedRAGより一貫して優れていた。
論文 参考訳(メタデータ) (2025-04-30T01:37:44Z) - Experience Retrieval-Augmentation with Electronic Health Records Enables Accurate Discharge QA [14.331262700941268]
RAGは、事実の医療知識を提供するために広く応用されている。
ケースベースの知識は効果的な医学的推論に不可欠である。
電子健康記録に基づくExpRAGフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-23T04:26:06Z) - Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - RGAR: Recurrence Generation-augmented Retrieval for Factual-aware Medical Question Answering [29.065294682044]
現在のパラダイムであるRetrieval-Augmented Generation (RAG)は、大規模なコーパス検索を通じて専門的な医療知識を取得する。
本稿では,2つの情報源から関連する事実知識と概念知識の両方を検索する再帰生成拡張検索フレームワークであるRGARを紹介する。
論文 参考訳(メタデータ) (2025-02-19T01:50:10Z) - Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - Tool Calling: Enhancing Medication Consultation via Retrieval-Augmented Large Language Models [10.04914417538886]
大規模言語モデル(LLM)は、様々な言語タスクで顕著な成功を収めてきたが、幻覚や時間的ミスアライメントに悩まされている。
従来のtextitRetrieve-then-Read の代わりに,新しい textitDistill-Retrieve-Read フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-27T13:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。