論文の概要: ProMed: Shapley Information Gain Guided Reinforcement Learning for Proactive Medical LLMs
- arxiv url: http://arxiv.org/abs/2508.13514v1
- Date: Tue, 19 Aug 2025 05:01:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.797245
- Title: ProMed: Shapley Information Gain Guided Reinforcement Learning for Proactive Medical LLMs
- Title(参考訳): ProMed: プロアクティブ医療LLMのための強化学習のための共有情報ゲイン
- Authors: Hongxin Ding, Baixiang Huang, Yue Fang, Weibin Liao, Xinke Jiang, Zheng Li, Junfeng Zhao, Yasha Wang,
- Abstract要約: インタラクティブな医療質問は、医師が患者から情報を積極的に集めなければならない実世界の臨床相談において不可欠である。
本稿では,医療用大規模言語モデルからプロアクティブパラダイムへ移行する強化学習フレームワークであるProMedを提案する。
ProMedのコアとなるのはShapley Information Gain(SIG)報酬であり、各質問の臨床的有用性を定量化する。
- 参考スコア(独自算出の注目度): 11.549316897525138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interactive medical questioning is essential in real-world clinical consultations, where physicians must actively gather information from patients. While medical Large Language Models (LLMs) have shown impressive capabilities in static medical question answering, they predominantly operate under a reactive paradigm: generating answers directly without seeking additional information, which risks incorrect diagnoses in such interactive settings. To address this limitation, we propose ProMed, a reinforcement learning (RL) framework that transitions medical LLMs toward a proactive paradigm, equipping them with the ability to ask clinically valuable questions before decision-making. At the core of ProMed is the Shapley Information Gain (SIG) reward, which quantifies the clinical utility of each question by combining the amount of newly acquired information with its contextual importance, estimated via Shapley values. We integrate SIG into a two-stage training pipeline: (1) SIG-Guided Model Initialization uses Monte Carlo Tree Search (MCTS) to construct high-reward interaction trajectories to supervise the model, and (2) SIG-Augmented Policy Optimization, which integrates SIG and enhances RL with a novel SIG-guided Reward Distribution Mechanism that assigns higher rewards to informative questions for targeted optimization. Extensive experiments on two newly curated partial-information medical benchmarks demonstrate that ProMed significantly outperforms state-of-the-art methods by an average of 6.29% and delivers a 54.45% gain over the reactive paradigm, while also generalizing robustly to out-of-domain cases.
- Abstract(参考訳): インタラクティブな医療質問は、医師が患者から情報を積極的に集めなければならない実世界の臨床相談において不可欠である。
医学的大規模言語モデル(LLM)は静的な医学的質問応答において印象的な能力を示しているが、それらは主にリアクティブパラダイムの下で運用されている。
この制限に対処するため,医療用LLMをプロアクティブパラダイムに移行するための強化学習(RL)フレームワークであるProMedを提案する。
ProMedのコアとなるShapley Information Gain(SIG)報酬は、Shapley値を通じて推定される、新たに取得した情報の量とその文脈的重要性を組み合わせることで、各質問の臨床的有用性を定量化するものである。
SIG-Guided Model Initialization using Monte Carlo Tree Search (MCTS) to construct high-reward Interaction trajectories to supervising model, (2) SIG-Augmented Policy Optimization, which integrated and enhances RL with a novel SIG-Guided Reward Distribution Mechanism that assigns higher rewards to informationative questions for target optimization。
新たにキュレートされた2つの部分情報医学ベンチマークの広範な実験により、ProMedは最先端の手法を平均6.29%上回り、リアクティブパラダイムを54.45%上回り、ドメイン外ケースにしっかりと一般化していることが示された。
関連論文リスト
- Lightweight Clinical Decision Support System using QLoRA-Fine-Tuned LLMs and Retrieval-Augmented Generation [0.0]
本研究では,医療におけるLarge Language Models(LLM)の適用について検討する。
我々は、病院固有のデータと統合された検索型RAG(Retrieval-Augmented Generation)による医療意思決定支援と、量子化低ランク適応(QLoRA)を用いた微調整に焦点を当てる。
我々は、患者のプライバシ、データセキュリティ、厳格な臨床検証の必要性、およびそのようなシステムを現実の医療に組み込むための実践的な課題など、倫理的な配慮に目を向ける。
論文 参考訳(メタデータ) (2025-05-06T10:31:54Z) - Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - Clinical QA 2.0: Multi-Task Learning for Answer Extraction and Categorization [2.380499804323775]
回答抽出と医療分類の両面でCQAモデルを共同で訓練するマルチタスク学習フレームワークを提案する。
回答の範囲の予測に加えて、我々のモデルは、診断、治療、症状、処置、実験報告の5つの標準化された医療カテゴリに分類する。
その結果、MTLは標準微調整に比べてF1スコアを2.2%改善し、解答分類の精度は90.7%向上した。
論文 参考訳(メタデータ) (2025-02-18T18:20:37Z) - LLM-MedQA: Enhancing Medical Question Answering through Case Studies in Large Language Models [18.6994780408699]
大規模言語モデル (LLM) は、医学的質問応答において重大な課題に直面している。
マルチエージェント医療質問応答システムに類似の事例生成を取り入れた新しい手法を提案する。
本手法は, モデル固有の医療知識と推論能力を活用し, 追加のトレーニングデータの必要性を解消する。
論文 参考訳(メタデータ) (2024-12-31T19:55:45Z) - Medchain: Bridging the Gap Between LLM Agents and Clinical Practice through Interactive Sequential Benchmarking [58.25862290294702]
臨床ワークフローの5つの重要な段階をカバーする12,163の臨床症例のデータセットであるMedChainを提示する。
フィードバック機構とMCase-RAGモジュールを統合したAIシステムであるMedChain-Agentも提案する。
論文 参考訳(メタデータ) (2024-12-02T15:25:02Z) - Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - MMed-RAG: Versatile Multimodal RAG System for Medical Vision Language Models [49.765466293296186]
近年,Med-LVLM (Med-LVLMs) の進歩により,対話型診断ツールの新たな可能性が高まっている。
Med-LVLMは、しばしば事実の幻覚に悩まされ、誤った診断につながることがある。
我々は,Med-LVLMの現実性を高めるために,多目的マルチモーダルRAGシステムMMed-RAGを提案する。
論文 参考訳(メタデータ) (2024-10-16T23:03:27Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - MeSIN: Multilevel Selective and Interactive Network for Medication
Recommendation [9.173903754083927]
薬物推奨のためのマルチレベル選択型対話型ネットワーク(MeSIN)を提案する。
まず、異なる医療コードの埋め込みに柔軟な注意スコアを割り当てるために注意選択モジュール(ASM)が適用されます。
第二に、EHRデータにおける多レベルの医療シーケンスの相互作用を強化するために、新しい対話型長期メモリネットワーク(InLSTM)を組み込む。
論文 参考訳(メタデータ) (2021-04-22T12:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。