論文の概要: Training LLMs for EHR-Based Reasoning Tasks via Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2505.24105v1
- Date: Fri, 30 May 2025 01:13:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.71997
- Title: Training LLMs for EHR-Based Reasoning Tasks via Reinforcement Learning
- Title(参考訳): 強化学習によるEHRに基づく推論タスクのためのLLMの訓練
- Authors: Jiacheng Lin, Zhenbang Wu, Jimeng Sun,
- Abstract要約: 検証可能な報酬付き強化学習(RLVR)を用いて,大規模言語モデル(LLM)を複雑な臨床推論タスクに適用するための実践的レシピを提案する。
医療計算(MEDCALC)、患者と臨床の整合性(TREC CLINICAL TRIALS)、疾患診断(EHRSHOT)など,様々な臨床応用における本手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 28.019558492081437
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present EHRMIND, a practical recipe for adapting large language models (LLMs) to complex clinical reasoning tasks using reinforcement learning with verifiable rewards (RLVR). While RLVR has succeeded in mathematics and coding, its application to healthcare contexts presents unique challenges due to the specialized knowledge and reasoning required for electronic health record (EHR) interpretation. Our pilot study on the MEDCALC benchmark reveals two key failure modes: (1) misapplied knowledge, where models possess relevant medical knowledge but apply it incorrectly, and (2) missing knowledge, where models lack essential domain knowledge. To address these cases, EHRMIND applies a two-stage solution: a lightweight supervised fine-tuning (SFT) warm-up that injects missing domain knowledge, stabilizes subsequent training, and encourages structured, interpretable outputs; followed by RLVR, which reinforces outcome correctness and refines the model's decision-making. We demonstrate the effectiveness of our method across diverse clinical applications, including medical calculations (MEDCALC), patient-trial matching (TREC CLINICAL TRIALS), and disease diagnosis (EHRSHOT). EHRMIND delivers consistent gains in accuracy, interpretability, and cross-task generalization. These findings offer practical guidance for applying RLVR to enhance LLM capabilities in healthcare settings.
- Abstract(参考訳): 本稿では, 大規模言語モデル(LLM)を, 検証可能な報酬付き強化学習(RLVR)を用いて, 複雑な臨床推論タスクに適用するための実践的レシピであるEHRMINDを提案する。
RLVRは数学やコーディングに成功しているが、医療分野への応用は、電子健康記録(EHR)解釈に必要な専門知識と推論のために、ユニークな課題を提起している。
MEDCALCベンチマークの試行では,(1) 適切な医療知識を持つが,正しく適用できない,(2) 重要なドメイン知識が欠如している,という2つの障害モードが明らかになった。
軽量の教師付き微調整(SFT)ウォームアップは、不足したドメイン知識を注入し、その後のトレーニングを安定化し、構造化された解釈可能なアウトプットを促進する。
医療計算(MEDCALC)、患者と臨床の整合性(TREC CLINICAL TRIALS)、疾患診断(EHRSHOT)など,様々な臨床応用における本手法の有効性を実証した。
EHRMINDは精度、解釈可能性、タスク間の一般化において一貫したゲインを提供する。
これらの知見は、医療環境におけるLLM機能を高めるためにRLVRを適用するための実践的なガイダンスを提供する。
関連論文リスト
- Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - Bridging Stepwise Lab-Informed Pretraining and Knowledge-Guided Learning for Diagnostic Reasoning [20.369746122143063]
本稿では,2つの相補的な情報ソースを結合した2元検定フレームワークを提案する。
外部知識のために,大規模モデルによって強化された階層的言語と意味的関係をエンコードする診断知識グラフ(KG)を構築した。
そこで本研究では,臨床検査信号に基づく段階的推論プロセスに従ってモデルを誘導する,ラボインフォームド・プロキシータスクを提案する。
論文 参考訳(メタデータ) (2024-10-25T20:25:22Z) - IntelliCare: Improving Healthcare Analysis with Variance-Controlled Patient-Level Knowledge from Large Language Models [14.709233593021281]
LLM(Large Language Models)からの外部知識の統合は、医療予測を改善するための有望な道を示す。
我々は,LLMを活用して高品質な患者レベルの外部知識を提供する新しいフレームワークであるIntelliCareを提案する。
IntelliCareは患者のコホートを特定し、LCMの理解と生成を促進するためにタスク関連統計情報を利用する。
論文 参考訳(メタデータ) (2024-08-23T13:56:00Z) - Ensuring Ground Truth Accuracy in Healthcare with the EVINCE framework [2.5200794639628032]
機械学習モデルによる誤ったラベル付きデータの臨床実践への伝播は容認できない。
本稿では,1)診断精度の向上を目的としたEVINCEと,2)誤診の修正とトレーニングデータエラーの最小化を目的としたシステムを提案する。
論文 参考訳(メタデータ) (2024-05-20T18:26:36Z) - Deep Reinforcement Learning for Personalized Diagnostic Decision Pathways Using Electronic Health Records: A Comparative Study on Anemia and Systemic Lupus Erythematosus [1.7965876401882177]
我々は、診断のタスクをシーケンシャルな意思決定問題として定式化する。
本研究では,Deep Reinforcement Learning (DRL)アルゴリズムを用いて,行動の最適なシーケンスを学習する。
貧血と全身性エリテマトーデスの2症例を経験したので報告する。
論文 参考訳(メタデータ) (2024-04-09T00:07:16Z) - Large Language Model Distilling Medication Recommendation Model [58.94186280631342]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - Natural Language Programming in Medicine: Administering Evidence Based Clinical Workflows with Autonomous Agents Powered by Generative Large Language Models [29.05425041393475]
ジェネレーティブ・大型言語モデル(LLM)は医療において大きな可能性を秘めている。
本研究は, シミュレーション3次医療センターにおいて, 自律型エージェントとして機能するLSMの可能性を評価した。
論文 参考訳(メタデータ) (2024-01-05T15:09:57Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - MIMO: Mutual Integration of Patient Journey and Medical Ontology for
Healthcare Representation Learning [49.57261599776167]
本稿では、医療表現学習と予測分析のための、エンドツーエンドの堅牢なトランスフォーマーベースのソリューション、患者旅行の相互統合、医療オントロジー(MIMO)を提案する。
論文 参考訳(メタデータ) (2021-07-20T07:04:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。