論文の概要: Addressing Overprescribing Challenges: Fine-Tuning Large Language Models for Medication Recommendation Tasks
- arxiv url: http://arxiv.org/abs/2503.03687v1
- Date: Wed, 05 Mar 2025 17:28:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:50:39.904622
- Title: Addressing Overprescribing Challenges: Fine-Tuning Large Language Models for Medication Recommendation Tasks
- Title(参考訳): 過剰記述課題に対処する:医療勧告タスクのための微調整大言語モデル
- Authors: Zihao Zhao, Chenxiao Fan, Chongming Gao, Fuli Feng, Xiangnan He,
- Abstract要約: 医療レコメンデーションシステムは、患者の臨床データに基づいて、パーソナライズされた効果的な薬物の組み合わせを提供する可能性について、医療機関内で注目を集めている。
既存の手法は、多様な電子健康記録(EHR)システムに適応する際の課題に直面する。
本稿では,Language-Assisted Medication Recommendation (LAMO)を提案する。
- 参考スコア(独自算出の注目度): 46.95099594570405
- License:
- Abstract: Medication recommendation systems have garnered attention within healthcare for their potential to deliver personalized and efficacious drug combinations based on patient's clinical data. However, existing methodologies encounter challenges in adapting to diverse Electronic Health Records (EHR) systems and effectively utilizing unstructured data, resulting in limited generalization capabilities and suboptimal performance. Recently, interest is growing in harnessing Large Language Models (LLMs) in the medical domain to support healthcare professionals and enhance patient care. Despite the emergence of medical LLMs and their promising results in tasks like medical question answering, their practical applicability in clinical settings, particularly in medication recommendation, often remains underexplored. In this study, we evaluate both general-purpose and medical-specific LLMs for medication recommendation tasks. Our findings reveal that LLMs frequently encounter the challenge of overprescribing, leading to heightened clinical risks and diminished medication recommendation accuracy. To address this issue, we propose Language-Assisted Medication Recommendation (LAMO), which employs a parameter-efficient fine-tuning approach to tailor open-source LLMs for optimal performance in medication recommendation scenarios. LAMO leverages the wealth of clinical information within clinical notes, a resource often underutilized in traditional methodologies. As a result of our approach, LAMO outperforms previous state-of-the-art methods by over 10% in internal validation accuracy. Furthermore, temporal and external validations demonstrate LAMO's robust generalization capabilities across various temporal and hospital contexts. Additionally, an out-of-distribution medication recommendation experiment demonstrates LAMO's remarkable accuracy even with medications outside the training data.
- Abstract(参考訳): 医療レコメンデーションシステムは、患者の臨床データに基づいて、パーソナライズされた効果的な薬物の組み合わせを提供する可能性について、医療機関内で注目を集めている。
しかし、既存の手法は、多様な電子健康記録(EHR)システムに適応し、非構造化データを効果的に活用することの難しさに直面する。
近年,医療分野における言語モデル(LLM)の活用への関心が高まっている。
医学的LLMの出現と、医学的質問応答のようなタスクにおける有望な結果にもかかわらず、臨床的状況、特に薬剤の推奨において、その実践的適用性はしばしば過小評価されている。
本研究は,医薬推奨業務における汎用LLMと医用LLMの双方について検討した。
以上の結果から,LSMは過剰処方の課題にしばしば遭遇し,臨床リスクの増大と薬剤推奨の精度の低下を招いた。
この問題を解決するために、我々は、パラメータ効率の良い微調整手法を用いたLanguage-Assisted Medication Recommendation (LAMO)を提案する。
LAMOは、伝統的手法では使われないリソースである臨床記録の豊富な臨床情報を活用している。
その結果, LAMOは内部検証精度を10%以上向上させることができた。
さらに、時間的・外部的な検証は、LAMOの様々な時間的・病院的文脈における堅牢な一般化能力を示す。
さらに、アウト・オブ・ディストリビューション・メディカル・リコメンデーション(英語版)の実験では、LAMOの顕著な精度がトレーニングデータ以外の薬でも証明されている。
関連論文リスト
- Natural Language-Assisted Multi-modal Medication Recommendation [97.07805345563348]
NLA-MMR(Natural Language-Assisted Multi-modal Medication Recommendation)を紹介する。
NLA-MMRは、患者視点から知識を学習し、医薬視点を共同で学習するために設計されたマルチモーダルアライメントフレームワークである。
本稿では,プレトレーニング言語モデル(PLM)を用いて,患者や医薬品に関するドメイン内知識を抽出する。
論文 参考訳(メタデータ) (2025-01-13T09:51:50Z) - Demystifying Large Language Models for Medicine: A Primer [50.83806796466396]
大規模言語モデル(LLM)は、医療のさまざまな側面に革命をもたらすことのできる、変革的なAIツールのクラスである。
本チュートリアルは、LSMを臨床実践に効果的に統合するために必要なツールを医療専門家に提供することを目的としている。
論文 参考訳(メタデータ) (2024-10-24T15:41:56Z) - MEDIC: Towards a Comprehensive Framework for Evaluating LLMs in Clinical Applications [2.838746648891565]
臨床能力の5つの重要な側面にまたがって,大規模言語モデル(LLM)を評価するフレームワークであるMEDICを紹介する。
医療質問応答,安全性,要約,メモ生成,その他のタスクにおいて,MDDICを用いてLCMを評価する。
その結果, モデルサイズ, ベースライン, 医療用微調整モデル間の性能差が示され, 特定のモデル強度を必要とするアプリケーションに対して, モデル選択に影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2024-09-11T14:44:51Z) - Large Language Model Distilling Medication Recommendation Model [58.94186280631342]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - Natural Language Programming in Medicine: Administering Evidence Based Clinical Workflows with Autonomous Agents Powered by Generative Large Language Models [29.05425041393475]
ジェネレーティブ・大型言語モデル(LLM)は医療において大きな可能性を秘めている。
本研究は, シミュレーション3次医療センターにおいて, 自律型エージェントとして機能するLSMの可能性を評価した。
論文 参考訳(メタデータ) (2024-01-05T15:09:57Z) - LLMs Accelerate Annotation for Medical Information Extraction [7.743388571513413]
本稿では,LLM(Large Language Models)と人間の専門知識を組み合わせた手法を提案する。
医療情報抽出タスクにおいて,我々の手法を厳格に評価し,我々のアプローチが人的介入を大幅に削減するだけでなく,高い精度を維持していることを示す。
論文 参考訳(メタデータ) (2023-12-04T19:26:13Z) - Aligning Large Language Models for Clinical Tasks [0.0]
大規模言語モデル(LLM)は目覚ましい適応性を示しており、明示的に訓練されていないタスクに精通する能力を示している。
我々は「Expand-guess-refine」として知られる医療質問応答のためのアライメント戦略を提案する。
この手法の予備的な分析により、USMLEデータセットから得られた質問のサブセットで70.63%のスコアが得られた。
論文 参考訳(メタデータ) (2023-09-06T10:20:06Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。