論文の概要: How many patients could we save with LLM priors?
- arxiv url: http://arxiv.org/abs/2509.04250v1
- Date: Thu, 04 Sep 2025 14:23:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.186853
- Title: How many patients could we save with LLM priors?
- Title(参考訳): LLMプリエントで何人の患者を救えるか?
- Authors: Shota Arai, David Selby, Andrew Vargo, Sebastian Vollmer,
- Abstract要約: 多施設臨床試験における有害事象の階層的ベイズモデリングのための新しい枠組みを提案する。
我々の手法は,事前学習された大言語モデル(LLM)を用いて,モデルから事前情報を直接取得する。
この方法論は、より効率的で専門家にインフォームドされた臨床試験設計の道を開く。
- 参考スコア(独自算出の注目度): 1.8421433205488897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Imagine a world where clinical trials need far fewer patients to achieve the same statistical power, thanks to the knowledge encoded in large language models (LLMs). We present a novel framework for hierarchical Bayesian modeling of adverse events in multi-center clinical trials, leveraging LLM-informed prior distributions. Unlike data augmentation approaches that generate synthetic data points, our methodology directly obtains parametric priors from the model. Our approach systematically elicits informative priors for hyperparameters in hierarchical Bayesian models using a pre-trained LLM, enabling the incorporation of external clinical expertise directly into Bayesian safety modeling. Through comprehensive temperature sensitivity analysis and rigorous cross-validation on real-world clinical trial data, we demonstrate that LLM-derived priors consistently improve predictive performance compared to traditional meta-analytical approaches. This methodology paves the way for more efficient and expert-informed clinical trial design, enabling substantial reductions in the number of patients required to achieve robust safety assessment and with the potential to transform drug safety monitoring and regulatory decision making.
- Abstract(参考訳): 大きな言語モデル(LLM)に符号化された知識のおかげで、同じ統計力を達成するために、臨床試験がはるかに少ない患者を必要としている世界を想像してください。
マルチセンター臨床試験における有害事象の階層的ベイズモデリングのための新しい枠組みについて述べる。
合成データポイントを生成するデータ拡張アプローチとは異なり,本手法はモデルから直接パラメトリック先行値を取得する。
提案手法は, 階層型ベイズモデルにおいて, 事前学習したLCMを用いて過度パラメータの事前情報を体系的に抽出し, ベイズモデルに直接外部臨床専門知識を組み込むことを可能にした。
実世界の臨床試験データに対する総合的な温度感受性分析と厳密なクロスバリデーションを通じて,LSM由来の先行研究が従来のメタ分析手法と比較して予測性能を一貫して改善することが実証された。
この手法は、より効率的で専門家による治験設計の道を開き、堅牢な安全性評価を達成するために必要な患者数を大幅に削減し、医薬品の安全性監視と規制決定を変革する可能性を秘めている。
関連論文リスト
- Deep Learning-based Prediction of Clinical Trial Enrollment with Uncertainty Estimates [1.7099366779394252]
患者登録の正確な予測は、試験の成功の重要な要因であり、計画段階における主要な課題の1つである。
本稿では,この重要な課題に対処する新しい深層学習手法を提案する。
提案手法は, 臨床治験において, 多数の施設に入院した患者数を効果的に予測できることを示す。
論文 参考訳(メタデータ) (2025-07-31T14:47:16Z) - AutoElicit: Using Large Language Models for Expert Prior Elicitation in Predictive Modelling [53.54623137152208]
我々はAutoElicitを導入し、大規模言語モデルから知識を抽出し、予測モデルのための事前構築を行う。
これらの先行情報は情報的であり、自然言語を用いて洗練できることを示す。
AutoElicitは、非形式的な事前よりもエラーを大幅に減らし、ラベルを減らし、コンテクスト内学習を一貫して上回ります。
論文 参考訳(メタデータ) (2024-11-26T10:13:39Z) - Towards Automatic Evaluation for LLMs' Clinical Capabilities: Metric, Data, and Algorithm [15.627870862369784]
大規模言語モデル (LLMs) は, 臨床診断の効率向上への関心が高まっている。
臨床サービス提供におけるLCMの能力を評価するための自動評価パラダイムを提案する。
論文 参考訳(メタデータ) (2024-03-25T06:17:54Z) - Improving Clinical Decision Support through Interpretable Machine Learning and Error Handling in Electronic Health Records [6.594072648536156]
Trust-MAPSは、臨床領域の知識を高次元の混合整数プログラミングモデルに変換する。
信頼スコアは、臨床決定支援タスクの予測性能を高めるだけでなく、MLモデルに解釈可能性を与える臨床的に有意義な特徴として出現する。
論文 参考訳(メタデータ) (2023-08-21T15:14:49Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。