論文の概要: Matching Patients to Clinical Trials with Large Language Models
- arxiv url: http://arxiv.org/abs/2307.15051v3
- Date: Sat, 20 Apr 2024 16:31:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 01:02:16.555080
- Title: Matching Patients to Clinical Trials with Large Language Models
- Title(参考訳): 言語モデルを用いた患者と臨床の整合性の検討
- Authors: Qiao Jin, Zifeng Wang, Charalampos S. Floudas, Fangyuan Chen, Changlin Gong, Dara Bracken-Clarke, Elisabetta Xue, Yifan Yang, Jimeng Sun, Zhiyong Lu,
- Abstract要約: 本稿では,患者間マッチングを支援するLLMフレームワークTrialGPTを紹介する。
患者注記が与えられた場合、TrialGPTは基準に基づいて患者の適性を予測する。
公用コホート184例を対象に,TrialGPTの試験レベル予測性能について検討した。
- 参考スコア(独自算出の注目度): 29.265158319106604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clinical trials are often hindered by the challenge of patient recruitment. In this work, we introduce TrialGPT, a first-of-its-kind large language model (LLM) framework to assist patient-to-trial matching. Given a patient note, TrialGPT predicts the patient's eligibility on a criterion-by-criterion basis and then consolidates these predictions to assess the patient's eligibility for the target trial. We evaluate the trial-level prediction performance of TrialGPT on three publicly available cohorts of 184 patients with over 18,000 trial annotations. We also engaged three physicians to label over 1,000 patient-criterion pairs to assess its criterion-level prediction accuracy. Experimental results show that TrialGPT achieves a criterion-level accuracy of 87.3% with faithful explanations, close to the expert performance (88.7%-90.0%). The aggregated TrialGPT scores are highly correlated with human eligibility judgments, and they outperform the best-competing models by 32.6% to 57.2% in ranking and excluding clinical trials. Furthermore, our user study reveals that TrialGPT can significantly reduce the screening time (by 42.6%) in a real-life clinical trial matching task. These results and analyses have demonstrated promising opportunities for clinical trial matching with LLMs such as TrialGPT.
- Abstract(参考訳): 臨床試験は、しばしば患者募集の課題によって妨げられる。
本稿では,患者間マッチングを支援するLLMフレームワークであるTrialGPTを紹介する。
患者注記が与えられた場合、TrialGPTは、患者が基準ごとの基準に基づいて適性を予測するとともに、これらの予測を統合して、対象の臨床試験に対する適性を評価する。
公用コホート184例を対象に,TrialGPTの試験レベル予測性能について検討した。
また,3名の医師に1,000名以上の患者基準ペアをラベル付けし,基準レベルの予測精度を評価した。
実験の結果、TrialGPTは専門家のパフォーマンス(88.7%-90.0%)に近く、忠実な説明で87.3%の基準レベルの精度を達成した。
集計されたTrialGPTスコアは、ヒトの適性判断と高い相関があり、最高の競争モデルを32.6%から57.2%で上回り、臨床試験を除外している。
さらに,本研究により,TrialGPTは実生活における臨床試験マッチング作業において,スクリーニング時間(42.6%)を大幅に短縮できることが明らかとなった。
これらの結果と分析により,TrialGPTなどのLSMとの臨床治験の機会が得られた。
関連論文リスト
- End-To-End Clinical Trial Matching with Large Language Models [0.6151041580858937]
大言語モデル(LLM)を用いた臨床試験のためのエンドツーエンドパイプラインを提案する。
本研究は,93.3%の症例において関連する候補試験を同定し,88.0%の予備的精度を達成している。
私たちの完全なエンドツーエンドパイプラインは、自律的または人間の監督の下で運用することができ、オンコロジーに限定されません。
論文 参考訳(メタデータ) (2024-07-18T12:36:26Z) - Accelerating Clinical Evidence Synthesis with Large Language Models [28.002870749019035]
本稿では,人間とAIのコラボレーションを促進するための生成人工知能パイプラインであるTrialMindを紹介する。
TrialMindは、検索、スクリーニング、データ抽出タスクを横断的に拡張する。
人間の専門家は、GPT-4よりもTrialMindの出力を62.5%から100%のケースで好んだ。
論文 参考訳(メタデータ) (2024-06-25T17:41:52Z) - PRISM: Patient Records Interpretation for Semantic Clinical Trial Matching using Large Language Models [4.438101430231511]
本報告では,実世界のERHを用いた臨床治験の大規模評価について述べる。
本研究は, LLMsが適切な臨床試験で患者に正確に適合する能力を示すものである。
論文 参考訳(メタデータ) (2024-04-23T22:33:19Z) - AutoTrial: Prompting Language Models for Clinical Trial Design [53.630479619856516]
本稿では,言語モデルを用いた臨床検査基準の設計を支援するAutoTrialという手法を提案する。
70K以上の臨床試験で、AutoTrialが高品質な基準テキストを生成することが確認された。
論文 参考訳(メタデータ) (2023-05-19T01:04:16Z) - Improving Patient Pre-screening for Clinical Trials: Assisting
Physicians with Large Language Models [0.0]
LLM(Large Language Models)は臨床情報抽出や臨床推論に有効であることが示されている。
本稿では,患者の総合的医療プロファイルに基づく臨床治験の適性判定に医師を支援するために,インストラクションGPTを用いることを検討した。
論文 参考訳(メタデータ) (2023-04-14T21:19:46Z) - SPOT: Sequential Predictive Modeling of Clinical Trial Outcome with
Meta-Learning [67.8195828626489]
臨床試験は薬物開発に不可欠であるが、時間を要する、費用がかかる、失敗する傾向がある。
本稿では,まず,複数ソースの臨床試験データを関連するトライアルトピックにクラスタリングするために,臨床トライアル結果の逐次予測mOdeling(SPOT)を提案する。
タスクとして各トライアルシーケンスを考慮して、メタ学習戦略を使用して、モデルが最小限のアップデートで新しいタスクに迅速に適応できるポイントを達成する。
論文 参考訳(メタデータ) (2023-04-07T23:04:27Z) - Towards Fair Patient-Trial Matching via Patient-Criterion Level Fairness
Constraint [50.35075018041199]
本研究は,患者基準値の公正度制約を発生させることにより,公正な患者間マッチングの枠組みを提案する。
実世界における患者基準と患者基準の整合性に関する実験結果から,提案手法が偏りやすい予測を効果的に緩和できることが示唆された。
論文 参考訳(メタデータ) (2023-03-24T03:59:19Z) - COMPOSE: Cross-Modal Pseudo-Siamese Network for Patient Trial Matching [70.08786840301435]
本稿では, CrOss-Modal PseudO-SiamEse Network (COMPOSE) を提案する。
実験の結果,患者基準マッチングでは98.0%,患者基準マッチングでは83.7%の精度でAUCに到達できることがわかった。
論文 参考訳(メタデータ) (2020-06-15T21:01:33Z) - Comparative Analysis of Predictive Methods for Early Assessment of
Compliance with Continuous Positive Airway Pressure Therapy [55.41644538483948]
CPAP (Continuous positive airway pressure, CPAP) は, 夜間のCPAP平均使用時間の4h以上と認められた。
これまでの研究では、治療の遵守に大きく関係した要因が報告されている。
本研究は,CPAP療法を併用したコンプライアンス分類器を患者フォローアップの3つの異なるタイミングで構築することにより,この方向へのさらなる一歩を踏み出すことを目的とする。
論文 参考訳(メタデータ) (2019-12-27T14:44:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。