論文の概要: Improving Patient Pre-screening for Clinical Trials: Assisting
Physicians with Large Language Models
- arxiv url: http://arxiv.org/abs/2304.07396v1
- Date: Fri, 14 Apr 2023 21:19:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 19:22:31.612968
- Title: Improving Patient Pre-screening for Clinical Trials: Assisting
Physicians with Large Language Models
- Title(参考訳): 臨床試験における患者の事前スクリーニングの改善 : 大規模言語モデルによる医師支援
- Authors: Danny M. den Hamer, Perry Schoor, Tobias B. Polak and Daniel Kapitan
- Abstract要約: LLM(Large Language Models)は臨床情報抽出や臨床推論に有効であることが示されている。
本稿では,患者の総合的医療プロファイルに基づく臨床治験の適性判定に医師を支援するために,インストラクションGPTを用いることを検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physicians considering clinical trials for their patients are met with the
laborious process of checking many text based eligibility criteria. Large
Language Models (LLMs) have shown to perform well for clinical information
extraction and clinical reasoning, including medical tests, but not yet in
real-world scenarios. This paper investigates the use of InstructGPT to assist
physicians in determining eligibility for clinical trials based on a patient's
summarised medical profile. Using a prompting strategy combining one-shot,
selection-inference and chain-of-thought techniques, we investigate the
performance of LLMs on 10 synthetically created patient profiles. Performance
is evaluated at four levels: ability to identify screenable eligibility
criteria from a trial given a medical profile; ability to classify for each
individual criterion whether the patient qualifies; the overall classification
whether a patient is eligible for a clinical trial and the percentage of
criteria to be screened by physician. We evaluated against 146 clinical trials
and a total of 4,135 eligibility criteria. The LLM was able to correctly
identify the screenability of 72% (2,994/4,135) of the criteria. Additionally,
72% (341/471) of the screenable criteria were evaluated correctly. The
resulting trial level classification as eligible or ineligible resulted in a
recall of 0.5. By leveraging LLMs with a physician-in-the-loop, a recall of 1.0
and precision of 0.71 on clinical trial level can be achieved while reducing
the amount of criteria to be checked by an estimated 90%. LLMs can be used to
assist physicians with pre-screening of patients for clinical trials. By
forcing instruction-tuned LLMs to produce chain-of-thought responses, the
reasoning can be made transparent to and the decision process becomes amenable
by physicians, thereby making such a system feasible for use in real-world
scenarios.
- Abstract(参考訳): 患者の臨床試験を検討する医師は、多くのテキストベースの適格性基準を検査する手間がかかる。
LLM(Large Language Models)は、医学的検査を含む臨床情報抽出や臨床推論においてよく機能するが、現実のシナリオでは機能しない。
本稿では,患者の総合的医療プロファイルに基づく臨床治験の適性判定に医師を支援するために,インストラクションGPTを用いたことを検討する。
単発,選択推論,チェーン・オブ・シントを併用したプロンプト戦略を用いて,10個の合成患者プロファイル上でのLCMの性能について検討した。
成績は、4つのレベルで評価される: 医学的プロファイルが与えられた試験からスクリーニング可能な適格基準を識別する能力、患者が適格かどうかの個々の基準を分類する能力、患者が臨床試験を受ける資格があるかどうかの全体分類、医師が検査する基準の割合。
我々は146回の臨床試験と合計4,135の適格性基準について評価した。
LLMは基準の72% (2,994/4,135) を正しく識別することができた。
また,スクリーニング基準の72% (341/471) が正しく評価された。
その結果、試験レベルの分類は適当か不可とされ、0.5のリコールとなった。
LLMを医用ループで活用することにより、診断基準の90%を減らしつつ、臨床試験レベルで1.0のリコールと0.71の精度を達成することができる。
LLMは、医師が臨床試験のために患者の事前スクリーニングを行うのを助けるために使用できる。
命令調整されたLLMにチェーン・オブ・プリート・レスポンスを強制することにより、推論を透過化し、医師による意思決定プロセスが実現し、現実のシナリオでの使用が可能なシステムを実現する。
関連論文リスト
- CliMedBench: A Large-Scale Chinese Benchmark for Evaluating Medical Large Language Models in Clinical Scenarios [50.032101237019205]
CliMedBenchは、14のエキスパートによるコア臨床シナリオを備えた総合的なベンチマークである。
このベンチマークの信頼性はいくつかの点で確認されている。
論文 参考訳(メタデータ) (2024-10-04T15:15:36Z) - Controlled LLM-based Reasoning for Clinical Trial Retrieval [0.4199844472131922]
そこで我々は,LSMの能力を拡張するスケーラブルな手法を提案し,医療適性基準のセットに対する推論を体系化する。
提案法はTREC 2022 臨床試験で評価され,最新技術である NDCG@10 の 0.693 と Precision@10 の 0.73 に勝る結果を得た。
論文 参考訳(メタデータ) (2024-09-19T09:42:33Z) - End-To-End Clinical Trial Matching with Large Language Models [0.6151041580858937]
大言語モデル(LLM)を用いた臨床試験のためのエンドツーエンドパイプラインを提案する。
本研究は,93.3%の症例において関連する候補試験を同定し,88.0%の予備的精度を達成している。
私たちの完全なエンドツーエンドパイプラインは、自律的または人間の監督の下で運用することができ、オンコロジーに限定されません。
論文 参考訳(メタデータ) (2024-07-18T12:36:26Z) - Zero-Shot Clinical Trial Patient Matching with LLMs [40.31971412825736]
大規模言語モデル(LLM)は、自動スクリーニングの有望なソリューションを提供する。
我々は,患者の診療歴を非構造的臨床テキストとして考慮し,その患者が包括的基準を満たしているかどうかを評価するLCMベースのシステムを構築した。
提案システムは,n2c2 2018コホート選択ベンチマークにおいて,最先端のスコアを達成している。
論文 参考訳(メタデータ) (2024-02-05T00:06:08Z) - TREEMENT: Interpretable Patient-Trial Matching via Personalized Dynamic
Tree-Based Memory Network [54.332862955411656]
臨床試験は薬物開発に不可欠であるが、しばしば高価で非効率な患者募集に苦しむ。
近年,患者と臨床試験を自動マッチングすることで患者採用を高速化する機械学習モデルが提案されている。
本稿では,TREement という名前の動的ツリーベースメモリネットワークモデルを導入する。
論文 参考訳(メタデータ) (2023-07-19T12:35:09Z) - AutoTrial: Prompting Language Models for Clinical Trial Design [53.630479619856516]
本稿では,言語モデルを用いた臨床検査基準の設計を支援するAutoTrialという手法を提案する。
70K以上の臨床試験で、AutoTrialが高品質な基準テキストを生成することが確認された。
論文 参考訳(メタデータ) (2023-05-19T01:04:16Z) - Towards Fair Patient-Trial Matching via Patient-Criterion Level Fairness
Constraint [50.35075018041199]
本研究は,患者基準値の公正度制約を発生させることにより,公正な患者間マッチングの枠組みを提案する。
実世界における患者基準と患者基準の整合性に関する実験結果から,提案手法が偏りやすい予測を効果的に緩和できることが示唆された。
論文 参考訳(メタデータ) (2023-03-24T03:59:19Z) - The Leaf Clinical Trials Corpus: a new resource for query generation
from clinical trial eligibility criteria [1.7205106391379026]
本報告では,1000以上の臨床治験適性基準を記載した人称コーパスであるLeaf Clinical Trials (LCT) corpusを紹介する。
スキーマ、アノテーションプロセス、コーパスの品質、統計の詳細を提供します。
論文 参考訳(メタデータ) (2022-07-27T19:22:24Z) - Clinical trial site matching with improved diversity using fair policy
learning [56.01170456417214]
我々は,臨床治験記述を潜在的な試験現場のランクリストにマッピングするモデルを学習する。
既存のフェアネスフレームワークとは異なり、各トライアルサイトのグループメンバーシップは非バイナリである。
このようなマルチグループメンバーシップシナリオに対処するために、人口統計学的妥当性に基づく公平性基準を提案する。
論文 参考訳(メタデータ) (2022-04-13T16:35:28Z) - Contextual Constrained Learning for Dose-Finding Clinical Trials [102.8283665750281]
C3T-Budget(C3T-Budget)は、予算と安全性の両方の制約の下での線量フィリングのための文脈制約付き臨床試験アルゴリズムである。
残りの予算、残業時間、各グループの特徴を考慮して患者を募集する。
論文 参考訳(メタデータ) (2020-01-08T11:46:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。