論文の概要: StayLTC: A Cost-Effective Multimodal Framework for Hospital Length of Stay Forecasting
- arxiv url: http://arxiv.org/abs/2504.05691v1
- Date: Tue, 08 Apr 2025 05:27:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 00:11:53.379374
- Title: StayLTC: A Cost-Effective Multimodal Framework for Hospital Length of Stay Forecasting
- Title(参考訳): StayLTC: 病院長予測のための費用効果型マルチモーダルフレームワーク
- Authors: Sudeshna Jana, Manjira Sinha, Tirthankar Dasgupta,
- Abstract要約: 本稿では, リアルタイム病院長(LOS)を予測するためのマルチモーダル深層学習フレームワークであるStayLTCについて, LTC(Liquid Time-Constant Networks)を用いて述べる。
MIMIC-IIIデータセットを用いて評価したところ、LCCは他の時系列モデルよりも大幅に優れており、資源利用における精度、堅牢性、効率性が向上していることがわかった。
- 参考スコア(独自算出の注目度): 3.094188181179751
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate prediction of Length of Stay (LOS) in hospitals is crucial for improving healthcare services, resource management, and cost efficiency. This paper presents StayLTC, a multimodal deep learning framework developed to forecast real-time hospital LOS using Liquid Time-Constant Networks (LTCs). LTCs, with their continuous-time recurrent dynamics, are evaluated against traditional models using structured data from Electronic Health Records (EHRs) and clinical notes. Our evaluation, conducted on the MIMIC-III dataset, demonstrated that LTCs significantly outperform most of the other time series models, offering enhanced accuracy, robustness, and efficiency in resource utilization. Additionally, LTCs demonstrate a comparable performance in LOS prediction compared to time series large language models, while requiring significantly less computational power and memory, underscoring their potential to advance Natural Language Processing (NLP) tasks in healthcare.
- Abstract(参考訳): 病院におけるLOS(Longth of Stay)の正確な予測は,医療サービス,資源管理,費用効率の向上に不可欠である。
本稿では,Lquid Time-Constant Networks (LTCs) を用いたリアルタイム病院LOS予測のためのマルチモーダルディープラーニングフレームワークである StayLTC を提案する。
LTCは, 電子健康記録(EHR)と臨床記録から得られた構造化データを用いて, 従来のモデルと比較した。
MIMIC-IIIデータセットを用いて評価したところ、LCCは他の時系列モデルよりも大幅に優れており、資源利用における精度、堅牢性、効率性が向上していることがわかった。
加えて、LCCは、医療における自然言語処理(NLP)タスクを前進させる可能性を強調しつつ、計算能力とメモリを著しく少なくしながら、時系列の大規模言語モデルと比較してLOS予測に匹敵するパフォーマンスを示す。
関連論文リスト
- LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - Optimizing Pretraining Data Mixtures with LLM-Estimated Utility [52.08428597962423]
大規模な言語モデルは、高品質なトレーニングデータの増加によって改善される。
トークンカウントは手動と学習の混合よりも優れており、データセットのサイズと多様性に対する単純なアプローチが驚くほど効果的であることを示している。
UtiliMaxは,手動ベースラインよりも最大10.6倍のスピードアップを達成することで,トークンベースの200ドルを拡大する。また,LLMを活用して小さなサンプルからデータユーティリティを推定するモデル推定データユーティリティ(MEDU)は,計算要求を$simxで削減し,アブレーションベースのパフォーマンスに適合する。
論文 参考訳(メタデータ) (2025-01-20T21:10:22Z) - HC-LLM: Historical-Constrained Large Language Models for Radiology Report Generation [89.3260120072177]
本稿では,放射線学レポート生成のための歴史制約付き大規模言語モデル (HC-LLM) フレームワークを提案する。
胸部X線写真から経時的特徴と経時的特徴を抽出し,疾患の進行を捉える診断報告を行った。
特に,本手法は,テスト中の履歴データなしでも良好に動作し,他のマルチモーダル大規模モデルにも容易に適用可能である。
論文 参考訳(メタデータ) (2024-12-15T06:04:16Z) - Enhancing In-Hospital Mortality Prediction Using Multi-Representational Learning with LLM-Generated Expert Summaries [3.5508427067904864]
ICU患者の院内死亡率(IHM)予測は、時間的介入と効率的な資源配分に重要である。
本研究は、構造化された生理データと臨床ノートをLarge Language Model(LLM)によって生成された専門家要約と統合し、IHM予測精度を向上させる。
論文 参考訳(メタデータ) (2024-11-25T16:36:38Z) - An Efficient Contrastive Unimodal Pretraining Method for EHR Time Series Data [35.943089444017666]
本稿では,長期臨床経過データに適した比較事前学習法を提案する。
本モデルでは, 臨床医が患者の症状についてより深い知見を得られるように, 欠損測定をインプットする能力を示す。
論文 参考訳(メタデータ) (2024-10-11T19:05:25Z) - Is larger always better? Evaluating and prompting large language models for non-generative medical tasks [11.799956298563844]
本研究は、GPTベースのLCM、BERTベースのモデル、従来の臨床予測モデルなど、さまざまなモデルをベンチマークする。
我々は,寛容と予測,疾患階層再構築,生物医学的文章マッチングといった課題に焦点をあてた。
その結果, LLMは, 適切に設計されたプロンプト戦略を用いて, 構造化EHRデータに対して頑健なゼロショット予測能力を示した。
構造化されていない医療用テキストでは、LLMは細調整されたBERTモデルよりも優れておらず、教師なしタスクと教師なしタスクの両方に優れていた。
論文 参考訳(メタデータ) (2024-07-26T06:09:10Z) - Prompting Large Language Models for Zero-Shot Clinical Prediction with
Structured Longitudinal Electronic Health Record Data [7.815738943706123]
大規模言語モデル(LLM)は、伝統的に自然言語処理に向いている。
本研究では, GPT-4 などの LLM の EHR データへの適応性について検討する。
EHRデータの長手性、スパース性、知識を注入した性質に対応するため、本研究は特定の特徴を考慮に入れている。
論文 参考訳(メタデータ) (2024-01-25T20:14:50Z) - Knowledge Enhanced Conditional Imputation for Healthcare Time-series [9.937117045677923]
Conditional Self-Attention Imputation (CSAI)は、複雑な欠落データパターンの課題に対処するために設計された、新しいリカレントニューラルネットワークアーキテクチャである。
CSAIは、EHRデータ特性に特化して、現在の最先端のニューラルネットワークベースの計算手法を拡張している。
この研究は、アルゴリズム的計算を臨床的現実とより緊密に整合させることにより、ERHに適用されるニューラルネットワーク計算の状態を著しく改善する。
論文 参考訳(メタデータ) (2023-12-27T20:42:40Z) - ICU Mortality Prediction Using Long Short-Term Memory Networks [0.0]
我々はElectronic Health Records(EHRs)から得られた大量の時間データを解析する自動データ駆動システムを実装した。
我々は,院内死亡率とLOS(Longth of Stay)を早期に予測するために,高レベル情報を抽出する。
実世界の予測エンジン構築のための厳密な時系列測定によるLSTMモデルの効率性について実験を行った。
論文 参考訳(メタデータ) (2023-08-18T09:44:47Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - Time Associated Meta Learning for Clinical Prediction [78.99422473394029]
本稿では,時間関連メタラーニング(TAML)手法を提案する。
タスク分割後のスパーシリティ問題に対処するため、TAMLは時間情報共有戦略を採用し、正のサンプル数を増やす。
複数の臨床データセットに対するTAMLの有効性を示す。
論文 参考訳(メタデータ) (2023-03-05T03:54:54Z) - Competence-based Multimodal Curriculum Learning for Medical Report
Generation [98.10763792453925]
本稿では,コンピテンスベースのマルチモーダルカリキュラム学習フレームワーク(CMCL)を提案する。
具体的には、CMCLは放射線学者の学習過程をシミュレートし、段階的にモデルを最適化する。
パブリックIU-XrayとMIMIC-CXRデータセットの実験は、CMCLを既存のモデルに組み込んでパフォーマンスを向上させることができることを示している。
論文 参考訳(メタデータ) (2022-06-24T08:16:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。