論文の概要: OpenTSLM: Time-Series Language Models for Reasoning over Multivariate Medical Text- and Time-Series Data
- arxiv url: http://arxiv.org/abs/2510.02410v1
- Date: Thu, 02 Oct 2025 09:58:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.092301
- Title: OpenTSLM: Time-Series Language Models for Reasoning over Multivariate Medical Text- and Time-Series Data
- Title(参考訳): OpenTSLM:多変量医療用テキストと時系列データを用いた時系列言語モデル
- Authors: Patrick Langer, Thomas Kaar, Max Rosenblattl, Maxwell A. Xu, Winnie Chow, Martin Maritsch, Aradhana Verma, Brian Han, Daniel Seung Kim, Henry Chubb, Scott Ceresnak, Aydin Zahedivash, Alexander Tarlochan Singh Sandhu, Fatima Rodriguez, Daniel McDuff, Elgar Fleisch, Oliver Aalami, Filipe Barata, Paul Schmiedmayer,
- Abstract要約: 時系列言語モデル(TSLM)のファミリであるOpenTSLMについて述べる。
OpenTSLMは学習可能な時系列トークンとテキストトークンをソフトプロンプトで結合することで、暗黙的に時系列をモデル化する。
本稿では,HAR-CoT,Sleep-CoT,ECG-QA-CoTの3つのデータセットを紹介する。
OpenTSLMのベースラインは69.9 F1、HARは65.4に達し、微調整されたテキストのみのモデルでは9.05と52.2であった。
- 参考スコア(独自算出の注目度): 35.931918163980605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLMs have emerged as powerful tools for interpreting multimodal data. In medicine, they hold particular promise for synthesizing large volumes of clinical information into actionable insights and digital health applications. Yet, a major limitation remains their inability to handle time series. To overcome this gap, we present OpenTSLM, a family of Time Series Language Models (TSLMs) created by integrating time series as a native modality to pretrained LLMs, enabling reasoning over multiple time series of any length. We investigate two architectures for OpenTSLM. The first, OpenTSLM-SoftPrompt, models time series implicitly by concatenating learnable time series tokens with text tokens via soft prompting. Although parameter-efficient, we hypothesize that explicit time series modeling scales better and outperforms implicit approaches. We thus introduce OpenTSLM-Flamingo, which integrates time series with text via cross-attention. We benchmark both variants against baselines that treat time series as text tokens or plots, across a suite of text-time-series Chain-of-Thought (CoT) reasoning tasks. We introduce three datasets: HAR-CoT, Sleep-CoT, and ECG-QA-CoT. Across all, OpenTSLM models outperform baselines, reaching 69.9 F1 in sleep staging and 65.4 in HAR, compared to 9.05 and 52.2 for finetuned text-only models. Notably, even 1B-parameter OpenTSLM models surpass GPT-4o (15.47 and 2.95). OpenTSLM-Flamingo matches OpenTSLM-SoftPrompt in performance and outperforms on longer sequences, while maintaining stable memory requirements. By contrast, SoftPrompt grows exponentially in memory with sequence length, requiring around 110 GB compared to 40 GB VRAM when training on ECG-QA with LLaMA-3B. Expert reviews by clinicians find strong reasoning capabilities exhibited by OpenTSLMs on ECG-QA. To facilitate further research, we provide all code, datasets, and models open-source.
- Abstract(参考訳): LLMはマルチモーダルデータを解釈するための強力なツールとして登場した。
医学では、大量の臨床情報を実用的な洞察とデジタルヘルスの応用に合成する、と特に約束している。
しかし、大きな制限は、時系列を扱うことができないままである。
このギャップを克服するために, 時系列言語モデル (TSLM) のファミリーである OpenTSLM を提案する。
OpenTSLMの2つのアーキテクチャについて検討する。
最初のOpenTSLM-SoftPromptは、学習可能な時系列トークンとテキストトークンをソフトプロンプトで結合することで、暗黙的に時系列をモデル化する。
パラメータ効率は高いが、明示的な時系列モデリングはより良くスケールし、暗黙的なアプローチより優れていると仮定する。
そこで我々は,時系列とテキストをクロスアテンションで統合するOpenTSLM-Flamingoを紹介した。
時系列をテキストトークンやプロットとして扱うベースラインに対して、テキスト時系列のChain-of-Thought(CoT)推論タスクをベンチマークします。
本稿では,HAR-CoT,Sleep-CoT,ECG-QA-CoTの3つのデータセットを紹介する。
全般的にOpenTSLMモデルはベースラインを上回り、スリープステージでは69.9 F1、HARでは65.4に達し、微調整されたテキストのみのモデルでは9.05と52.2だった。
特に、1BパラメーターのOpenTSLMモデルでさえGPT-4o (15.47と2.95)を上回っている。
OpenTSLM-FlamingoはOpenTSLM-SoftPromptと性能が良く、より長いシーケンスで性能が良く、安定したメモリ要件を維持している。
対照的にSoftPromptは、LLaMA-3BでECG-QAのトレーニングを行う際には、40GBのVRAMに比べて110GB程度のメモリで指数関数的に成長する。
臨床医による専門家によるレビューでは、ECG-QA上でOpenTSLMsが示す強力な推論能力が確認されている。
さらなる研究を容易にするため、オープンソースですべてのコード、データセット、モデルを提供しています。
関連論文リスト
- LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced Understanding and Reasoning [10.854285913078257]
本稿では,時系列解析用に設計された新しいMLLMであるChatTSを紹介する。
ChatTSは、視覚MLLMが画像を処理する方法と同様、時系列をモダリティとして扱う。
Time Series Evol-Instructは様々な時系列Q&Aを生成し、モデルの推論能力を高めます。
論文 参考訳(メタデータ) (2024-12-04T08:06:15Z) - TableTime: Reformulating Time Series Classification as Training-Free Table Understanding with Large Language Models [14.880203496664963]
大規模言語モデル (LLM) は多変量時系列分類において有効であることを示した。
LLM は LLM の潜在空間内の時系列の埋め込みを直接コードし、LLM の意味空間と一致させる。
MTSCを表理解タスクとして再編成するテーブルタイムを提案する。
論文 参考訳(メタデータ) (2024-11-24T07:02:32Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。