論文の概要: RAR$^2$: Retrieval-Augmented Medical Reasoning via Thought-Driven Retrieval
- arxiv url: http://arxiv.org/abs/2509.22713v1
- Date: Wed, 24 Sep 2025 05:35:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.81783
- Title: RAR$^2$: Retrieval-Augmented Medical Reasoning via Thought-Driven Retrieval
- Title(参考訳): RAR$^2$:Retrieval-Augmented Medical Reasoning via Thought-Driven Retrieval
- Authors: Kaishuai Xu, Wenjun Hou, Yi Cheng, Wenjie Li,
- Abstract要約: 大きな言語モデル(LLM)は、様々な医療ベンチマークで有望なパフォーマンスを示している。
RAGは、外部医療情報を取り入れることで、知識ギャップと幻覚を緩和するための重要なアプローチとして登場した。
我々は、Reasoning-Augmented RetrievalとRetrieval-Augmented Reasoningを改善する共同学習フレームワークであるRAR$2$を提案する。
- 参考スコア(独自算出の注目度): 25.425621641226815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have shown promising performance on diverse medical benchmarks, highlighting their potential in supporting real-world clinical tasks. Retrieval-Augmented Generation (RAG) has emerged as a key approach for mitigating knowledge gaps and hallucinations by incorporating external medical information. However, RAG still struggles with complex medical questions that require intensive reasoning, as surface-level input often fails to reflect the true knowledge needs of the task. Existing methods typically focus on refining queries without explicitly modeling the reasoning process, limiting their ability to retrieve and integrate clinically relevant knowledge. In this work, we propose RAR$^2$, a joint learning framework that improves both Reasoning-Augmented Retrieval and Retrieval-Augmented Reasoning. RAR$^2$ constructs a thought process to uncover implicit knowledge requirements and uses it to guide retrieval and answer generation. We build a training dataset of mixed preference pairs and apply Direct Preference Optimization (DPO) to train the model. Moreover, we design two test-time scaling strategies to explore the boundaries of our framework. Experiments demonstrate the effectiveness of RAR$^2$ across several biomedical question answering datasets, outperforming RAG baselines with or without fine-tuning.
- Abstract(参考訳): 大規模言語モデル(LLM)は、様々な医療ベンチマークで有望なパフォーマンスを示し、実際の臨床タスクをサポートする可能性を強調している。
検索・拡張世代(RAG)は,外部医療情報を取り入れることで,知識ギャップと幻覚を緩和するための重要なアプローチとして登場した。
しかしながら、RAGは、表面レベルの入力がタスクの真の知識要求を反映しない場合が多いため、集中的な推論を必要とする複雑な医学的問題に苦慮している。
既存の手法は通常、推論プロセスを明示的にモデル化することなくクエリの精細化に重点を置いており、臨床的に関連する知識を検索し統合する能力を制限する。
本研究では,Reasoning-Augmented RetrievalとRetrieval-Augmented Reasoningの両方を改善した共同学習フレームワークであるRAR$^2$を提案する。
RAR$^2$は、暗黙の知識要件を明らかにするための思考プロセスを構築し、それを検索と回答生成のガイドに利用する。
我々は、混合選好ペアのトレーニングデータセットを構築し、モデルをトレーニングするために直接選好最適化(DPO)を適用します。
さらに、フレームワークの境界を探索する2つのテストタイムスケーリング戦略を設計する。
実験では、RAR$^2$がいくつかのバイオメディカル質問応答データセットに対して有効であることを示し、RAGベースラインを微調整の有無で上回っている。
関連論文リスト
- Search-R2: Enhancing Search-Integrated Reasoning via Actor-Refiner Collaboration [49.9937230730202]
本稿では,新たなアクター・リファイナ・コラボレーション・フレームワークであるSearch-R2を提案する。
提案手法は,生成過程をアクターに分解し,最初の推論軌道を生成する。
本稿では,検索-R2がモデルスケール全体にわたって強力なRAGとRLベースのベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2026-02-03T15:32:09Z) - Anatomy-R1: Enhancing Anatomy Reasoning in Multimodal Large Language Models via Anatomical Similarity Curriculum and Group Diversity Augmentation [52.7583577508452]
MLLM(Multimodal Large Language Models)は自然画像推論において顕著な進歩を遂げている。
医用画像におけるその潜在性は、特に臨床解剖学的外科画像では未発見のままである。
これらの課題は、従来のSupervised Fine-Tuning戦略の有効性を制限する。
論文 参考訳(メタデータ) (2025-12-22T16:06:36Z) - Grounded by Experience: Generative Healthcare Prediction Augmented with Hierarchical Agentic Retrieval [29.377256313893934]
大規模言語モデル(LLM)は、豊富なパラメトリック知識に基づいて、医療の予測を強化するための有望な道を提供する。
LLMは、組み込み知識の信頼性とカバレッジに制限があるため、事実的不正確な傾向にある。
GHARは,医療におけるサブモジュール間の協調をいつ取得するか,どのように最適化するかを同時に解決する下線構造下線下線下線RAGフレームワークである。
論文 参考訳(メタデータ) (2025-11-17T12:15:46Z) - MedAlign: A Synergistic Framework of Multimodal Preference Optimization and Federated Meta-Cognitive Reasoning [52.064286116035134]
我々はMed-VQA(Med-VQA)のための視覚的LVLM応答を保証するフレームワークであるMedAlignを開発した。
まず、優先学習を視覚的コンテキストに合わせるために、マルチモーダルな直接選好最適化(mDPO)の目的を提案する。
次に、画像とテキストの類似性を生かし、クエリを専門的でコンテキスト拡張されたLVLMにルーティングする検索型混合処理(RA-MoE)アーキテクチャを設計する。
論文 参考訳(メタデータ) (2025-10-24T02:11:05Z) - Proactive Reasoning-with-Retrieval Framework for Medical Multimodal Large Language Models [15.530083855947987]
我々は,Med-RwR を用いた最初のマルチモーダル医療推論フレームワークを提案する。
Med-RwRは、推論中に観察された症状やドメイン固有の医療概念を問い合わせることで、外部知識を積極的に回収する。
様々な公開医療ベンチマークの評価は、Med-RwRのベースラインモデルに対する大幅な改善を示している。
論文 参考訳(メタデータ) (2025-10-21T05:18:18Z) - RAD: Towards Trustworthy Retrieval-Augmented Multi-modal Clinical Diagnosis [56.373297358647655]
Retrieval-Augmented Diagnosis (RAD)は、下流タスクで直接マルチモーダルモデルに外部知識を注入する新しいフレームワークである。
RADは、複数の医療ソースからの疾患中心の知識の検索と改善、ガイドライン強化コントラスト損失トランスフォーマー、デュアルデコーダの3つの主要なメカニズムで機能する。
論文 参考訳(メタデータ) (2025-09-24T10:36:14Z) - MedCoT-RAG: Causal Chain-of-Thought RAG for Medical Question Answering [4.285647375182588]
大規模言語モデル (LLM) は医学的な疑問に答える上で有望であるが、幻覚や浅い推論に苦しむことが多い。
Retrieval-augmented Generation (RAG)は、外部の医療知識でLSMを強化するための実用的でプライバシー保護の手段を提供する。
MedCoT-RAGは、因果認識ドキュメント検索と構造化チェーン・オブ・シークレット・プロンプトを組み合わせたドメイン固有フレームワークである。
論文 参考訳(メタデータ) (2025-08-20T05:43:26Z) - Medical Reasoning in the Era of LLMs: A Systematic Review of Enhancement Techniques and Applications [59.721265428780946]
医学における大きな言語モデル(LLM)は印象的な能力を実現しているが、体系的で透明で検証可能な推論を行う能力に重大なギャップが残っている。
本稿は、この新興分野に関する最初の体系的なレビューを提供する。
本稿では,学習時間戦略とテスト時間メカニズムに分類した推論強化手法の分類法を提案する。
論文 参考訳(メタデータ) (2025-08-01T14:41:31Z) - Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.10441885629787]
Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。
逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。
この調査は両鎖を統一的推論-検索の観点から合成する。
論文 参考訳(メタデータ) (2025-07-13T03:29:41Z) - Talk Before You Retrieve: Agent-Led Discussions for Better RAG in Medical QA [17.823588070044217]
本稿では,医療質問応答システムを強化するためのプラグアンドプレイモジュールであるDisdisuss-RAGを提案する。
本手法では,多ターンブレインストーミングをエミュレートする医療専門家のチームを編成し,検索内容の関連性を向上する要約エージェントを提案する。
4つのベンチマーク医学QAデータセットによる実験結果から、DEC-RAGはMedRAGより一貫して優れていた。
論文 参考訳(メタデータ) (2025-04-30T01:37:44Z) - Experience Retrieval-Augmentation with Electronic Health Records Enables Accurate Discharge QA [14.331262700941268]
RAGは、事実の医療知識を提供するために広く応用されている。
ケースベースの知識は効果的な医学的推論に不可欠である。
電子健康記録に基づくExpRAGフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-23T04:26:06Z) - Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - RGAR: Recurrence Generation-augmented Retrieval for Factual-aware Medical Question Answering [29.065294682044]
現在のパラダイムであるRetrieval-Augmented Generation (RAG)は、大規模なコーパス検索を通じて専門的な医療知識を取得する。
本稿では,2つの情報源から関連する事実知識と概念知識の両方を検索する再帰生成拡張検索フレームワークであるRGARを紹介する。
論文 参考訳(メタデータ) (2025-02-19T01:50:10Z) - Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - Tool Calling: Enhancing Medication Consultation via Retrieval-Augmented Large Language Models [10.04914417538886]
大規模言語モデル(LLM)は、様々な言語タスクで顕著な成功を収めてきたが、幻覚や時間的ミスアライメントに悩まされている。
従来のtextitRetrieve-then-Read の代わりに,新しい textitDistill-Retrieve-Read フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-27T13:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。