論文の概要: Doctor-R1: Mastering Clinical Inquiry with Experiential Agentic Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2510.04284v1
- Date: Sun, 05 Oct 2025 16:54:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.560231
- Title: Doctor-R1: Mastering Clinical Inquiry with Experiential Agentic Reinforcement Learning
- Title(参考訳): Dr-R1:経験的エージェント強化学習による臨床検査の習得
- Authors: Yunghwei Lai, Kaiming Liu, Ziyue Wang, Weizhi Ma, Yang Liu,
- Abstract要約: AIのドクターエージェントであるDoctor-R1は、高利回りの質問をしたり、戦略的多ターン調査を行うことで、両方の能力を習得するよう訓練されている。
我々は,OpenAIのHealthBenchとMAQuEでDoctor-R1を評価し,コミュニケーション品質,ユーザエクスペリエンス,タスク精度などの多面的指標を評価した。
- 参考スコア(独自算出の注目度): 13.39086276169509
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The professionalism of a human doctor in outpatient service depends on two core abilities: the ability to make accurate medical decisions and the medical consultation skill to conduct strategic, empathetic patient inquiry. Existing Large Language Models (LLMs) have achieved remarkable accuracy on medical decision-making benchmarks. However, they often lack the ability to conduct the strategic and empathetic consultation, which is essential for real-world clinical scenarios. To address this gap, we propose Doctor-R1, an AI doctor agent trained to master both of the capabilities by ask high-yield questions and conduct strategic multi-turn inquiry to guide decision-making. Our framework introduces three key components: a multi-agent interactive environment, a two-tiered reward architecture that separately optimizes clinical decision-making and communicative inquiry skills, and an experience repository to ground policy learning in high-quality prior trajectories. We evaluate Doctor-R1 on OpenAI's HealthBench and MAQuE, assessed across multi-facet metrics, such as communication quality, user experience, and task accuracy. Remarkably, Doctor-R1 surpasses state-of-the-art open-source specialized LLMs by a substantial margin with higher parameter efficiency and outperforms powerful proprietary models. Furthermore, the human evaluations show a strong preference for Doctor-R1 to generate human-preferred clinical dialogue, demonstrating the effectiveness of the framework.
- Abstract(参考訳): 外来医療における人間の医師の専門性は、正確な医療判断を行う能力と、戦略的で共感的な患者調査を行うための医療相談スキルの2つのコア能力に依存する。
既存のLarge Language Models (LLMs) は、医学的意思決定ベンチマークにおいて顕著な精度を達成した。
しかし、実際の臨床シナリオに欠かせない戦略的、共感的な相談を行う能力に欠けることが多い。
このギャップに対処するために、我々は、高利得の質問をし、意思決定を導くための戦略的多ターン調査を行うことで、両方の能力の習得を訓練されたAI医師エージェントであるDoctor-R1を提案する。
本フレームワークでは,複数エージェントの対話型環境,臨床意思決定とコミュニケーション調査のスキルを個別に最適化する2階層の報酬アーキテクチャ,高品質な事前軌道上での政策学習を基盤とする体験リポジトリの3つの重要なコンポーネントを紹介する。
我々は,OpenAIのHealthBenchとMAQuEでDoctor-R1を評価し,コミュニケーション品質,ユーザエクスペリエンス,タスク精度などの多面的指標を評価した。
注目すべきは、Doctor-R1が最先端のオープンソース専用LSMをはるかに上回り、パラメータ効率が向上し、強力なプロプライエタリモデルを上回っていることだ。
さらに、ヒト評価は、医師-R1がヒトに好まれる臨床対話を生成することを強く好んでおり、その枠組みの有効性を実証している。
関連論文リスト
- RAD: Towards Trustworthy Retrieval-Augmented Multi-modal Clinical Diagnosis [56.373297358647655]
Retrieval-Augmented Diagnosis (RAD)は、下流タスクで直接マルチモーダルモデルに外部知識を注入する新しいフレームワークである。
RADは、複数の医療ソースからの疾患中心の知識の検索と改善、ガイドライン強化コントラスト損失トランスフォーマー、デュアルデコーダの3つの主要なメカニズムで機能する。
論文 参考訳(メタデータ) (2025-09-24T10:36:14Z) - MMedAgent-RL: Optimizing Multi-Agent Collaboration for Multimodal Medical Reasoning [63.63542462400175]
医療エージェント間の動的に最適化された協調を可能にする強化学習に基づくマルチエージェントフレームワークMMedAgent-RLを提案する。
具体的には、Qwen2.5-VLに基づく2つのGPエージェントをRLを介して訓練する: トリアージ医師は患者を適切な専門分野に割り当てることを学ぶ一方、主治医はマルチスペシャリストの判断を統合する。
5つのVQAベンチマークの実験では、MMedAgent-RLはオープンソースおよびプロプライエタリなMed-LVLMよりも優れており、人間のような推論パターンも示している。
論文 参考訳(メタデータ) (2025-05-31T13:22:55Z) - DoctorAgent-RL: A Multi-Agent Collaborative Reinforcement Learning System for Multi-Turn Clinical Dialogue [14.95390953068765]
大規模言語モデル (LLMs) は, バイオメディカルな質問応答の分野で優れた能力を発揮してきたが, 実際の臨床研究への応用はいまだに課題に直面している。
我々は,医療相談を不確実性下での動的意思決定プロセスとしてモデル化する,強化学習(RL)に基づくマルチエージェント協調フレームワークであるOursを提案する。
本手法は,医療資源の配分を最適化し,労働力不足を緩和する戦略の草分けとして,時間的プレッシャーによる誤診リスクの低減,複雑な症例に対する臨床医の解放,医療資源配分の最適化,労働力不足の緩和など,極めて実践的な価値を示す。
論文 参考訳(メタデータ) (2025-05-26T07:48:14Z) - TAMA: A Human-AI Collaborative Thematic Analysis Framework Using Multi-Agent LLMs for Clinical Interviews [54.35097932763878]
Thematic Analysis (TA) は、構造化されていないテキストデータの潜在意味を明らかにするために広く使われている定性的手法である。
本稿では,多エージェントLEMを用いた人間とAIの協調的テーマ分析フレームワークTAMAを提案する。
TAMA は既存の LLM 支援TA アプローチよりも優れており,高い主題的ヒット率,カバレッジ,独特性を実現している。
論文 参考訳(メタデータ) (2025-03-26T15:58:16Z) - Towards Conversational AI for Disease Management [29.189384095061722]
Articulate Medical Intelligence Explorer (AMIE) は、臨床管理と対話のために最適化されたエージェントシステムである。
AMIEは、専門医が評価する管理的推論において、PCPに非優位である。
AMIEの評価における強いパフォーマンスは、疾患管理のツールとしての対話型AIへの重要な一歩である。
論文 参考訳(メタデータ) (2025-03-08T05:48:58Z) - Towards Next-Generation Medical Agent: How o1 is Reshaping Decision-Making in Medical Scenarios [46.729092855387165]
本稿では,医療用AIエージェントのバックボーンLSMの選択について検討する。
我々の研究結果は、o1の診断精度と一貫性を高める能力を示し、よりスマートでより応答性の高いAIツールへの道を開いた。
論文 参考訳(メタデータ) (2024-11-16T18:19:53Z) - RuleAlign: Making Large Language Models Better Physicians with Diagnostic Rule Alignment [54.91736546490813]
本稿では,大規模言語モデルと特定の診断規則との整合性を考慮したルールアラインフレームワークを提案する。
患者と医師間の規則に基づくコミュニケーションを含む医療対話データセットを開発した。
実験の結果,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-08-22T17:44:40Z) - Transformer-based classification of user queries for medical consultancy
with respect to expert specialization [4.124390946636936]
本稿では,RuBERTモデルを用いた医療相談分野におけるユーザからの問い合わせを分類するための革新的な戦略を提案する。
我々は,クエリと特定の医療専門知識の正確な対応を容易にする様々なデータセット上で,事前学習したRuBERTモデルを微調整した。
論文 参考訳(メタデータ) (2023-09-26T04:36:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。