論文の概要: PRISM: Patient Records Interpretation for Semantic Clinical Trial Matching using Large Language Models
- arxiv url: http://arxiv.org/abs/2404.15549v1
- Date: Tue, 23 Apr 2024 22:33:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-25 15:03:25.060766
- Title: PRISM: Patient Records Interpretation for Semantic Clinical Trial Matching using Large Language Models
- Title(参考訳): PRISM:大規模言語モデルを用いた意味的臨床試験における患者記録の解釈
- Authors: Shashi Kant Gupta, Aditya Basu, Mauro Nievas, Jerrin Thomas, Nathan Wolfrath, Adhitya Ramamurthi, Bradley Taylor, Anai N. Kothari, Therica M. Miller, Sorena Nadaf-Rahrov, Yanshan Wang, Hrituraj Singh,
- Abstract要約: 本報告では,実世界のERHを用いた臨床治験の大規模評価について述べる。
本研究は, LLMsが適切な臨床試験で患者に正確に適合する能力を示すものである。
- 参考スコア(独自算出の注目度): 4.5465896401391825
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Clinical trial matching is the task of identifying trials for which patients may be potentially eligible. Typically, this task is labor-intensive and requires detailed verification of patient electronic health records (EHRs) against the stringent inclusion and exclusion criteria of clinical trials. This process is manual, time-intensive, and challenging to scale up, resulting in many patients missing out on potential therapeutic options. Recent advancements in Large Language Models (LLMs) have made automating patient-trial matching possible, as shown in multiple concurrent research studies. However, the current approaches are confined to constrained, often synthetic datasets that do not adequately mirror the complexities encountered in real-world medical data. In this study, we present the first, end-to-end large-scale empirical evaluation of clinical trial matching using real-world EHRs. Our study showcases the capability of LLMs to accurately match patients with appropriate clinical trials. We perform experiments with proprietary LLMs, including GPT-4 and GPT-3.5, as well as our custom fine-tuned model called OncoLLM and show that OncoLLM, despite its significantly smaller size, not only outperforms GPT-3.5 but also matches the performance of qualified medical doctors. All experiments were carried out on real-world EHRs that include clinical notes and available clinical trials from a single cancer center in the United States.
- Abstract(参考訳): 臨床試験マッチング(英: Clinical trial matching)とは、患者が潜在的に適する可能性のある臨床試験を識別するタスクである。
典型的には、この課題は労働集約的で、臨床試験の厳格な包摂と排除基準に対する患者の電子健康記録(EHR)の詳細な検証が必要である。
このプロセスは手動で、時間集約的で、スケールアップが難しいため、多くの患者が治療オプションを欠いている。
近年のLarge Language Models (LLMs) の進歩は、複数の同時研究で示されているように、患者と臨床のマッチングの自動化を可能にしている。
しかし、現在のアプローチは、現実の医療データで発生する複雑さを適切に反映しない、制約のある、しばしば合成データセットに限られている。
本研究では,実世界のEHRを用いた臨床治験マッチングの大規模評価を,エンド・ツー・エンドで行った最初の大規模評価を行った。
本研究は, LLMsが適切な臨床試験で患者に正確に適合する能力を示すものである。
GPT-4 や GPT-3.5 などの独自 LLM と,OncoLLM と呼ばれるカスタム微調整モデルを用いて実験を行った結果,OncoLLM は小さかったが GPT-3.5 を上回り,医師の能力に匹敵する結果となった。
実験はすべて、臨床ノートや米国の1つのがんセンターから入手可能な臨床試験を含む現実世界の EHR で実施された。
関連論文リスト
- AI Hospital: Interactive Evaluation and Collaboration of LLMs as Intern
Doctors for Clinical Diagnosis [72.50974375416239]
リアルタイムのインタラクティブな診断環境を構築するために設計されたフレームワークであるAI Hospitalを紹介する。
様々な大規模言語モデル(LLM)は、対話的診断のためのインターン医師として機能する。
我々は,医療部長の監督の下で,反復的な議論と紛争解決プロセスを含む協調的なメカニズムを導入する。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - Zero-Shot Clinical Trial Patient Matching with LLMs [40.31971412825736]
大規模言語モデル(LLM)は、自動スクリーニングの有望なソリューションを提供する。
我々は,患者の診療歴を非構造的臨床テキストとして考慮し,その患者が包括的基準を満たしているかどうかを評価するLCMベースのシステムを構築した。
提案システムは,n2c2 2018コホート選択ベンチマークにおいて,最先端のスコアを達成している。
論文 参考訳(メタデータ) (2024-02-05T00:06:08Z) - Generative Large Language Models are autonomous practitioners of
evidence-based medicine [27.229179922424063]
EBM(エビデンス・ベース・メディカル)は、臨床医学の基礎であり、臨床医が継続的に知識を更新し、患者医療に最良の臨床証拠を適用する必要がある。
EBMの実践は、医学研究の急速な進歩による課題に直面し、臨床医に情報過負荷をもたらす。
人工知能(AI)の統合、特にジェネレーティブ・大型言語モデル(LLM)は、この複雑さを管理するための有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-01-05T15:09:57Z) - Distilling Large Language Models for Matching Patients to Clinical
Trials [3.4068841624198942]
近年の大規模言語モデル(LLMs)の成功は、医療分野における彼らの採用の道を開いた。
本研究は,患者と臨床の整合性に対するプロプライエタリ (GPT-3.5, GPT-4) とオープンソース LLM (LLAMA 7B, 13B, 70B) の併用性について,最初の系統的検討を行った。
この制限された合成データセットを微調整したオープンソースのLLMは、プロプライエタリなデータセットと同等の性能を示した。
論文 参考訳(メタデータ) (2023-12-15T17:11:07Z) - Scaling Clinical Trial Matching Using Large Language Models: A Case
Study in Oncology [17.214664001970526]
大規模言語モデル(LLM)を用いた臨床治験マッチングのスケーリングに関する系統的研究を行う。
本研究は、米国の大規模医療ネットワークにおいて、現在試験展開中の臨床試験マッチングシステムに基礎を置いている。
論文 参考訳(メタデータ) (2023-08-04T07:51:15Z) - Matching Patients to Clinical Trials with Large Language Models [29.265158319106604]
本稿では,患者間マッチングを支援するLLMフレームワークTrialGPTを紹介する。
患者注記が与えられた場合、TrialGPTは基準に基づいて患者の適性を予測する。
公用コホート184例を対象に,TrialGPTの試験レベル予測性能について検討した。
論文 参考訳(メタデータ) (2023-07-27T17:56:56Z) - TREEMENT: Interpretable Patient-Trial Matching via Personalized Dynamic
Tree-Based Memory Network [54.332862955411656]
臨床試験は薬物開発に不可欠であるが、しばしば高価で非効率な患者募集に苦しむ。
近年,患者と臨床試験を自動マッチングすることで患者採用を高速化する機械学習モデルが提案されている。
本稿では,TREement という名前の動的ツリーベースメモリネットワークモデルを導入する。
論文 参考訳(メタデータ) (2023-07-19T12:35:09Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - Clinical trial site matching with improved diversity using fair policy
learning [56.01170456417214]
我々は,臨床治験記述を潜在的な試験現場のランクリストにマッピングするモデルを学習する。
既存のフェアネスフレームワークとは異なり、各トライアルサイトのグループメンバーシップは非バイナリである。
このようなマルチグループメンバーシップシナリオに対処するために、人口統計学的妥当性に基づく公平性基準を提案する。
論文 参考訳(メタデータ) (2022-04-13T16:35:28Z) - MIA-Prognosis: A Deep Learning Framework to Predict Therapy Response [58.0291320452122]
本稿では,患者の予後と治療反応を予測するための統合型深層学習手法を提案する。
我々は,マルチモーダル非同期時系列分類タスクとして,確率モデリングを定式化する。
我々の予測モデルは、長期生存の観点から、低リスク、高リスクの患者をさらに階層化する可能性がある。
論文 参考訳(メタデータ) (2020-10-08T15:30:17Z) - COMPOSE: Cross-Modal Pseudo-Siamese Network for Patient Trial Matching [70.08786840301435]
本稿では, CrOss-Modal PseudO-SiamEse Network (COMPOSE) を提案する。
実験の結果,患者基準マッチングでは98.0%,患者基準マッチングでは83.7%の精度でAUCに到達できることがわかった。
論文 参考訳(メタデータ) (2020-06-15T21:01:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。