論文の概要: Rethinking Large Language Models For Irregular Time Series Classification In Critical Care
- arxiv url: http://arxiv.org/abs/2601.16516v2
- Date: Mon, 26 Jan 2026 02:07:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 17:22:45.358906
- Title: Rethinking Large Language Models For Irregular Time Series Classification In Critical Care
- Title(参考訳): 医療における不規則な時系列分類のための大規模言語モデルの再考
- Authors: Feixiang Zheng, Yu Wu, Cecilia Mascolo, Ting Dang,
- Abstract要約: 集中治療室(ICU)からの時系列データは、患者のモニタリングに重要な情報を提供する。
近年,Large Language Models (LLM) を時系列モデリング (TSM) に適用する研究が進んでいる。
本研究では、時系列エンコーダとマルチモーダルアライメント戦略の2つの重要な要素について検討する。
- 参考スコア(独自算出の注目度): 21.37241228209626
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series data from the Intensive Care Unit (ICU) provides critical information for patient monitoring. While recent advancements in applying Large Language Models (LLMs) to time series modeling (TSM) have shown great promise, their effectiveness on the irregular ICU data, characterized by particularly high rates of missing values, remains largely unexplored. This work investigates two key components underlying the success of LLMs for TSM: the time series encoder and the multimodal alignment strategy. To this end, we establish a systematic testbed to evaluate their impact across various state-of-the-art LLM-based methods on benchmark ICU datasets against strong supervised and self-supervised baselines. Results reveal that the encoder design is more critical than the alignment strategy. Encoders that explicitly model irregularity achieve substantial performance gains, yielding an average AUPRC increase of $12.8\%$ over the vanilla Transformer. While less impactful, the alignment strategy is also noteworthy, with the best-performing semantically rich, fusion-based strategy achieving a modest $2.9\%$ improvement over cross-attention. However, LLM-based methods require at least 10$\times$ longer training than the best-performing irregular supervised models, while delivering only comparable performance. They also underperform in data-scarce few-shot learning settings. These findings highlight both the promise and current limitations of LLMs for irregular ICU time series. The code is available at https://github.com/mHealthUnimelb/LLMTS.
- Abstract(参考訳): 集中治療室(ICU)からの時系列データは、患者のモニタリングに重要な情報を提供する。
近年,Large Language Models (LLMs) を時系列モデリング (TSM) に適用する研究が盛んに進んでいるが,その不規則なICUデータに対する有効性は特に高い値の欠落率を特徴としている。
本研究では、時系列エンコーダとマルチモーダルアライメント戦略の2つの重要な要素について検討する。
この目的のために我々は,ICUデータセットをベンチマークする,最先端のLCMベースの様々な手法による,強力な教師付きおよび自己教師付きベースラインに対する影響を評価するための,体系的なテストベッドを構築した。
その結果, エンコーダの設計はアライメント戦略よりも重要であることがわかった。
不規則性を明示的にモデル化するエンコーダは、バニラトランスフォーマーよりも平均12.8\%のAUPRC上昇を達成している。
影響は少ないが、アライメント戦略も注目すべきであり、セマンティックに豊かな融合ベースの戦略は、クロスアテンションよりもわずかに2.9 %$改善されている。
しかし、LCMベースの手法では、最高のパフォーマンスの不正な教師付きモデルよりも少なくとも10$\times$のトレーニングが必要であり、同等のパフォーマンスしか提供できない。
また、データスカースな数ショットの学習設定でもパフォーマンスが劣る。
これらの結果は、不規則なICU時系列に対するLLMの約束と現在の限界の両方を浮き彫りにしている。
コードはhttps://github.com/mHealthUnimelb/LLMTSで入手できる。
関連論文リスト
- TimeLens: Rethinking Video Temporal Grounding with Multimodal LLMs [81.78017865436816]
我々は,映像の時間的接地能力の強いMLLMを体系的に構築するTimeLensを提案する。
まず,既存のVTGベンチマークにおける重要な品質問題を明らかにし,TimeLens-Benchを導入する。
また、自動再アノテーションパイプラインを通じてノイズの多いトレーニングデータに対処し、大規模で高品質なトレーニングデータセットであるTimeLens-100Kを出力します。
論文 参考訳(メタデータ) (2025-12-16T18:59:58Z) - LLM Unlearning Reveals a Stronger-Than-Expected Coreset Effect in Current Benchmarks [23.5632914682956]
大規模言語モデルアンラーニングは、安全性と制御モデル行動を保証する上で重要な課題となっている。
LLMのアンラーニングは、かなり小さなサブセット(コアセットとして機能する)で効果的に維持可能であることを示す。
これは、非常に低データ状態であっても、これらのベンチマークでのLLMアンラーニングが驚くほど容易に実行可能であることを示唆している。
論文 参考訳(メタデータ) (2025-04-14T12:38:37Z) - Efficient Model Selection for Time Series Forecasting via LLMs [52.31535714387368]
本稿では,Large Language Models (LLM) をモデル選択の軽量な代替手段として活用することを提案する。
提案手法は, LLMの固有知識と推論能力を活用することで, 明示的な性能行列の必要性を解消する。
論文 参考訳(メタデータ) (2025-04-02T20:33:27Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - Large Language Models are Few-shot Multivariate Time Series Classifiers [23.045734479292356]
大規模言語モデル (LLM) は時系列解析に広く応用されている。
しかし、数発の分類(すなわち重要な訓練シナリオ)におけるそれらの実用性は過小評価されている。
データ不足を克服するために,LLMの学習済み知識を幅広く活用することを目的としている。
論文 参考訳(メタデータ) (2025-01-30T03:59:59Z) - Understanding Why Large Language Models Can Be Ineffective in Time Series Analysis: The Impact of Modality Alignment [16.147350486106777]
大規模言語モデル (LLM) は時系列解析において顕著な性能を示した。
しかしながら、LLMは時系列タスク用に設計されていないため、線形回帰のような単純なモデルは、しばしば同等のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2024-10-16T07:47:31Z) - VinePPO: Refining Credit Assignment in RL Training of LLMs [66.80143024475635]
我々は,言語環境の柔軟性を利用してモンテカルロをベースとした推定値を計算する,簡単なアプローチであるVinePPOを提案する。
本手法は,MATHおよびGSM8Kデータセット間のPPOおよび他のベースラインをウォールクロック時間以下で連続的に上回る。
論文 参考訳(メタデータ) (2024-10-02T15:49:30Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。