論文の概要: The Foundational Capabilities of Large Language Models in Predicting Postoperative Risks Using Clinical Notes
- arxiv url: http://arxiv.org/abs/2402.17493v5
- Date: Sat, 31 Aug 2024 19:42:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-04 19:31:47.170398
- Title: The Foundational Capabilities of Large Language Models in Predicting Postoperative Risks Using Clinical Notes
- Title(参考訳): 臨床ノートを用いた術後リスク予測における大規模言語モデルの基盤的機能
- Authors: Charles Alba, Bing Xue, Joanna Abraham, Thomas Kannampallil, Chenyang Lu,
- Abstract要約: 各種微調整戦略を用いて,大言語モデル(LLM)の術後6つのリスク予測における性能について検討した。
事前訓練されたLLMは、AUROCが38.3%、AUPRCが33.2%で従来の単語の埋め込みよりも優れていた。
最高性能は統一された基礎モデルで達成され、AUROCは3.6%、AUPRCは2.6%改善された。
- 参考スコア(独自算出の注目度): 7.42249589630227
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clinical notes recorded during a patient's perioperative journey holds immense informational value. Advances in large language models (LLMs) offer opportunities for bridging this gap. Using 84,875 pre-operative notes and its associated surgical cases from 2018 to 2021, we examine the performance of LLMs in predicting six postoperative risks using various fine-tuning strategies. Pretrained LLMs outperformed traditional word embeddings by an absolute AUROC of 38.3% and AUPRC of 33.2%. Self-supervised fine-tuning further improved performance by 3.2% and 1.5%. Incorporating labels into training further increased AUROC by 1.8% and AUPRC by 2%. The highest performance was achieved with a unified foundation model, with improvements of 3.6% for AUROC and 2.6% for AUPRC compared to self-supervision, highlighting the foundational capabilities of LLMs in predicting postoperative risks, which could be potentially beneficial when deployed for perioperative care
- Abstract(参考訳): 術後経過中に記録された臨床記録は, 膨大な情報量を有する。
大きな言語モデル(LLM)の進歩は、このギャップを埋める機会を提供する。
2018年から2021年までの84,875件の術前メモと関連する手術例を用いて, 各種微調整戦略を用いて術後6つのリスクを予測するためのLSMの性能について検討した。
事前訓練されたLLMは、AUROCが38.3%、AUPRCが33.2%で従来の単語の埋め込みよりも優れていた。
自己監督による微調整により性能は3.2%と1.5%向上した。
ラベルをトレーニングに組み込むことでAUROCはさらに1.8%、AUPRCは2%増加した。
AUROCは3.6%, AUPRCは2.6%, 自衛隊は2.6%に改善し, 術後リスク予測におけるLLMの基礎的能力を強調した。
関連論文リスト
- DeLLiriuM: A large language model for delirium prediction in the ICU using structured EHR [1.4699314771635081]
デリリウムは急性の混乱状態であり、集中治療室(ICU)の31%の患者に影響を及ぼすことが示されている。
3大データベースにわたる195病院のICU入院患者104,303名を対象にDeLLiriuMの開発と評価を行った。
論文 参考訳(メタデータ) (2024-10-22T18:56:31Z) - Closing the gap between open-source and commercial large language models for medical evidence summarization [20.60798771155072]
大規模言語モデル(LLM)は、医学的証拠の要約において大きな可能性を秘めている。
最近の研究は、プロプライエタリなLLMの応用に焦点を当てている。
オープンソースのLLMは透明性とカスタマイズを向上するが、そのパフォーマンスはプロプライエタリなものに比べて低下する。
論文 参考訳(メタデータ) (2024-07-25T05:03:01Z) - Automatic Prediction of Amyotrophic Lateral Sclerosis Progression using Longitudinal Speech Transformer [56.17737749551133]
ニューラルネットワークを用いたALS病進行自動予測器であるALS長手音声変換器(ALST)を提案する。
録音における高品質な事前訓練音声特徴と長手情報を活用することで、最良のモデルが91.0%のAUCを達成できる。
ALSTはALS進行の細粒度で解釈可能な予測が可能で、特に稀な症例と重篤な症例の区別が可能である。
論文 参考訳(メタデータ) (2024-06-26T13:28:24Z) - Efficient Continual Pre-training by Mitigating the Stability Gap [68.49269649759005]
本研究では,Large Language Models (LLM) の継続事前学習における挙動について検討する。
固定された計算予算内でのLLM性能を向上させるための3つの効果的な戦略を提案する。
当社の戦略は,OpenLlama-3Bモデルの平均医療タスク性能を36.2%から40.7%に改善し,当初のトレーニング予算の40%に過ぎなかった。
論文 参考訳(メタデータ) (2024-06-21T02:28:37Z) - Modified Risk Formulation for Improving the Prediction of Knee Osteoarthritis Progression [36.12790384412525]
変形性関節症(OA)の予後を予測するための現在の手法は、疾患固有の先行知識を取り入れていない。
我々は,OA結果予測を改善するために連続画像解析を効果的に活用する新しい手法を開発した。
論文 参考訳(メタデータ) (2024-06-14T15:24:49Z) - Agent-FLAN: Designing Data and Methods of Effective Agent Tuning for Large Language Models [56.00992369295851]
オープンソースのLarge Language Models(LLM)は、さまざまなNLPタスクで大きな成功を収めていますが、エージェントとして振る舞う場合、それでもAPIベースのモデルよりもはるかに劣っています。
本稿では,(1) エージェント学習コーパスを,(1) エージェント学習データの分布から大きくシフトするエージェント推論と,(2) エージェントタスクが必要とする能力に異なる学習速度を示すエージェント学習コーパスと,(3) 幻覚を導入することでエージェント能力を改善する際の副作用について述べる。
本稿では,エージェントのためのFLANモデルを効果的に構築するためのエージェントFLANを提案する。
論文 参考訳(メタデータ) (2024-03-19T16:26:10Z) - Sequential Model for Predicting Patient Adherence in Subcutaneous Immunotherapy for Allergic Rhinitis [16.386676205583697]
皮膚下免疫療法はアレルギー性鼻炎(AR)の長期因果治療である
本研究では、新しい機械学習モデルを活用し、AR患者の非一貫性のリスクを正確に予測することを目的とする。
論文 参考訳(メタデータ) (2024-01-21T09:55:47Z) - Adaptation with Self-Evaluation to Improve Selective Prediction in LLMs [56.526095828316386]
大規模言語モデル(LLM)の選択予測性能を改善するために,自己評価による適応のための新しいフレームワークを提案する。
提案手法は,様々な質問応答(QA)データセット上で評価し,最先端の選択的予測手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-18T03:34:59Z) - Democratizing LLMs: An Exploration of Cost-Performance Trade-offs in
Self-Refined Open-Source Models [53.859446823312126]
SoTAは7Bから65Bまでのさまざまなサイズのオープンソースモデルを平均して、ベースラインのパフォーマンスから8.2%改善している。
厳密に言えば、Vicuna-7Bのような非常に小さなメモリフットプリントを持つモデルでさえ、全体的な11.74%の改善と、高い創造性、オープンエンドタスクの25.39%の改善を示している。
論文 参考訳(メタデータ) (2023-10-11T15:56:00Z) - Federated Learning Enables Big Data for Rare Cancer Boundary Detection [98.5549882883963]
6大陸にわたる71の医療機関のデータを含む,これまでで最大のフェデレーテッドML研究の結果を報告する。
グリオ芽腫の稀な疾患に対する腫瘍境界自動検出装置を作製した。
当科では, 外科的に標的とした腫瘍の悪性度を高めるために, 33%の改善率を示し, 腫瘍全体に対する23%の改善率を示した。
論文 参考訳(メタデータ) (2022-04-22T17:27:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。