論文の概要: MedClarify: An information-seeking AI agent for medical diagnosis with case-specific follow-up questions
- arxiv url: http://arxiv.org/abs/2602.17308v1
- Date: Thu, 19 Feb 2026 12:19:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.021282
- Title: MedClarify: An information-seeking AI agent for medical diagnosis with case-specific follow-up questions
- Title(参考訳): MedClarify:ケース固有のフォローアップ質問を伴う診断のための情報検索AIエージェント
- Authors: Hui Min Wong, Philip Heesen, Pascal Janetzky, Martin Bendszus, Stefan Feuerriegel,
- Abstract要約: 我々は,情報探索のためのAIエージェントであるMedClarifyを紹介し,反復推論のためのフォローアップ質問を生成する。
具体的には、MedClarifyは、鑑別診断に類似した候補診断のリストを計算し、積極的にフォローアップ質問を生成する。
- 参考スコア(独自算出の注目度): 26.936554184582096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) are increasingly used for diagnostic tasks in medicine. In clinical practice, the correct diagnosis can rarely be immediately inferred from the initial patient presentation alone. Rather, reaching a diagnosis often involves systematic history taking, during which clinicians reason over multiple potential conditions through iterative questioning to resolve uncertainty. This process requires considering differential diagnoses and actively excluding emergencies that demand immediate intervention. Yet, the ability of medical LLMs to generate informative follow-up questions and thus reason over differential diagnoses remains underexplored. Here, we introduce MedClarify, an AI agent for information-seeking that can generate follow-up questions for iterative reasoning to support diagnostic decision-making. Specifically, MedClarify computes a list of candidate diagnoses analogous to a differential diagnosis, and then proactively generates follow-up questions aimed at reducing diagnostic uncertainty. By selecting the question with the highest expected information gain, MedClarify enables targeted, uncertainty-aware reasoning to improve diagnostic performance. In our experiments, we first demonstrate the limitations of current LLMs in medical reasoning, which often yield multiple, similarly likely diagnoses, especially when patient cases are incomplete or relevant information for diagnosis is missing. We then show that our information-theoretic reasoning approach can generate effective follow-up questioning and thereby reduces diagnostic errors by ~27 percentage points (p.p.) compared to a standard single-shot LLM baseline. Altogether, MedClarify offers a path to improve medical LLMs through agentic information-seeking and to thus promote effective dialogues with medical LLMs that reflect the iterative and uncertain nature of real-world clinical reasoning.
- Abstract(参考訳): 大きな言語モデル(LLM)は、医学における診断タスクにますます使われている。
臨床では、最初の患者の提示だけでは、正しい診断がすぐに推測されることはめったにない。
むしろ、診断に達するには、しばしば組織的な履歴を取ることが必要であり、その間、臨床医は、不確実性を解決するための反復的な質問を通じて、複数の潜在的条件を推論する。
このプロセスでは、鑑別診断を検討し、即時介入を要求する緊急事態を積極的に排除する必要がある。
しかし、医療用LDMが情報的フォローアップ質問を発生させ、鑑別診断に対する理性は未解明のままである。
本稿では,情報探索のためのAIエージェントであるMedClarifyを紹介する。
具体的には、MedClarifyは、鑑別診断に類似した候補診断のリストを計算し、診断の不確実性を軽減することを目的としたフォローアップ質問を積極的に生成する。
MedClarifyは、最も期待されている情報ゲインで質問を選択することで、ターゲットとなる不確実性を考慮した推論を可能にし、診断性能を向上させる。
本実験では, 患者が不完全であったり, 診断関連情報が欠落していたりする場合に, しばしば複数の診断結果が得られる医学的推論における現在のLCMの限界を最初に示す。
そこで,我々の情報理論的推論手法は効果的なフォローアップ質問を発生させ,診断誤差を標準的な単発LPMベースラインと比較して約27ポイント削減できることを示す。
さらに、MedClarifyは、エージェント情報検索を通じて医療LCMを改善する道を提供し、現実の臨床推論の反復的で不確実な性質を反映した医療LSMとの効果的な対話を促進する。
関連論文リスト
- Thinking Like a Doctor: Conversational Diagnosis through the Exploration of Diagnostic Knowledge Graphs [12.612647781309098]
本稿では,2段階の推論を行うための診断知識グラフを探索する対話型診断システムを提案する。
システムの質問に応答する現実的な患者シミュレータを使用します。
実験では、強いベースラインよりも診断精度と効率が向上した。
論文 参考訳(メタデータ) (2026-02-02T11:56:36Z) - Simulating Viva Voce Examinations to Evaluate Clinical Reasoning in Large Language Models [51.91760712805404]
大規模言語モデル(LLM)におけるシーケンシャルな臨床推論を評価するためのベンチマークであるVivaBenchを紹介する。
本データセットは,医療訓練における(口頭)検査をシミュレートする対話的シナリオとして構成された1762名の医師による臨床ヴィグネットから構成される。
本分析では,臨床における認知的誤りを反映するいくつかの障害モードを同定した。
論文 参考訳(メタデータ) (2025-10-11T16:24:35Z) - End-to-End Agentic RAG System Training for Traceable Diagnostic Reasoning [52.12425911708585]
Deep-DxSearchは、強化学習(RL)でエンドツーエンドに訓練されたエージェントRAGシステムである。
Deep-DxSearchでは,患者記録と信頼性のある医療知識情報を含む大規模医療検索コーパスを構築した。
実験により、エンドツーエンドのRLトレーニングフレームワークは、プロンプトエンジニアリングやトレーニングフリーなRAGアプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-08-21T17:42:47Z) - Reverse Physician-AI Relationship: Full-process Clinical Diagnosis Driven by a Large Language Model [71.40113970879219]
医師とAIの関係を逆転させるパラダイムシフトを提案する。
DxDirector-7Bは先進的な深層思考能力を持つLLMであり,医師の関与を最小限に抑えたフルプロセス診断を可能にする。
DxDirector-7Bは診断精度が優れているだけでなく、医師の作業量を大幅に削減する。
論文 参考訳(メタデータ) (2025-08-14T09:51:20Z) - MedCaseReasoning: Evaluating and learning diagnostic reasoning from clinical case reports [49.00805568780791]
MedCaseReasoningはLarge Language Models(LLM)を評価するための最初のオープンアクセスデータセットである。
データセットには14,489の診断的質問・回答ケースが含まれており、それぞれに詳細な推論文がペアリングされている。
我々は,MedCaseReasoning上での最先端の推論LPMを評価し,診断と推論に重大な欠点を見出した。
論文 参考訳(メタデータ) (2025-05-16T22:34:36Z) - Towards Reducing Diagnostic Errors with Interpretable Risk Prediction [18.474645862061426]
特定診断のリスクの増大または低下を示す患者EHRデータ中の証拠片をLCMを用いて同定する方法を提案する。
私たちの究極の目標は、証拠へのアクセスを増やし、診断エラーを減らすことです。
論文 参考訳(メタデータ) (2024-02-15T17:05:48Z) - Beyond Direct Diagnosis: LLM-based Multi-Specialist Agent Consultation
for Automatic Diagnosis [30.943705201552643]
本研究では,潜在的な疾患に対するエージェントの確率分布を適応的に融合させることにより,現実世界の診断過程をモデル化する枠組みを提案する。
提案手法では,パラメータ更新とトレーニング時間を大幅に短縮し,効率と実用性を向上する。
論文 参考訳(メタデータ) (2024-01-29T12:25:30Z) - Towards the Identifiability and Explainability for Personalized Learner
Modeling: An Inductive Paradigm [36.60917255464867]
本稿では,エンコーダ・デコーダモデルにインスパイアされた新しい応答効率応答パラダイムに基づく,識別可能な認知診断フレームワークを提案する。
診断精度を損なうことなく,ID-CDFが効果的に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-09-01T07:18:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。