論文の概要: SciTS: Scientific Time Series Understanding and Generation with LLMs
- arxiv url: http://arxiv.org/abs/2510.03255v1
- Date: Fri, 26 Sep 2025 09:25:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-12 15:03:05.807252
- Title: SciTS: Scientific Time Series Understanding and Generation with LLMs
- Title(参考訳): SciTS: LLMによる科学的時系列理解と生成
- Authors: Wen Wu, Ziyang Zhang, Liwei Liu, Xuenan Xu, Junlin Liu, Ke Fan, Qitan Lv, Jimin Zhuang, Chen Zhang, Zheqi Yuan, Siyuan Hou, Tianyi Lin, Kai Chen, Bowen Zhou, Chao Zhang,
- Abstract要約: SciTSは12の科学領域と43のタスクにまたがるベンチマークである。
テキストのみのLLM、マルチモーダルのLLM、統合時系列モデルを含む17のモデルをベンチマークする。
次に、時系列を理解して生成する能力を備えたLLMに対応するフレームワークであるTime Omniを紹介します。
- 参考スコア(独自算出の注目度): 53.35994674187729
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The scientific reasoning ability of large language models (LLMs) has recently attracted significant attention. Time series, as a fundamental modality in scientific data, presents unique challenges that are often overlooked in current multimodal LLMs, which either encode numerical sequences as text or convert them into images. Such approaches may be insufficient for comprehensive scientific time series understanding and generation. Existing unified time series models typically specialise in either forecasting or analysis, and their effectiveness on non-periodic, heterogeneous scientific signals remains unclear. To address these gaps, we introduce SciTS, a benchmark spanning 12 scientific domains and 43 tasks, with over 50k+ instances, both univariate and multivariate signals ranging from $10^0$ to $10^7$ in length and up to 10~MHz in frequency. We benchmark 17 models, including text-only LLMs, multimodal LLMs, and unified time series models, and find that general-purpose LLMs exhibit stronger generalisability than specialised time series models, while representing time series as text or images limits their performance due to excessively long sequences and loss of numerical precision, respectively. We then introduce TimeOmni, a framework that equips LLMs with the ability to understand and generate time series while remaining compatible with general-purpose LLM training. This work fills a gap in both dedicated benchmarks and modelling frameworks for scientific time series, paving the way for LLMs to understand and generate complex temporal scientific data.
- Abstract(参考訳): 大規模言語モデル(LLM)の科学的推論能力は近年注目されている。
時系列は、科学データにおける基本的なモダリティとして、現在のマルチモーダル LLM でしばしば見過ごされる固有の課題を示し、数値列をテキストとしてエンコードするか、イメージに変換する。
このようなアプローチは、包括的な科学的時系列の理解と生成には不十分である。
既存の統合時系列モデルは、予測や分析に特化しており、非周期的で異質な科学信号に対する効果は未だ不明である。
これらのギャップに対処するために、SciTSは、12の科学領域と43のタスクにまたがるベンチマークで、50k以上のインスタンスを持ち、10^0$から10^7$までの単変量信号と多変量信号の両方が10〜MHzの周波数である。
テキストのみのLLM, マルチモーダルLLM, 統一時系列モデルを含む17種類のモデルをベンチマークした結果, 汎用LLMは特殊時系列モデルよりも強い汎用性を示し, 時系列をテキストや画像として表現することで, 過度に長いシーケンスと数値精度の喪失により, それぞれの性能を制限していることがわかった。
次に、汎用LLMトレーニングと互換性を保ちながら、時系列を理解・生成できるフレームワークであるTimeOmniを紹介する。
この研究は、科学時系列のための専用のベンチマークとモデリングフレームワークのギャップを埋め、LLMが複雑な時間的科学的データを理解し、生成する道を開く。
関連論文リスト
- TS-Reasoner: Aligning Time Series Foundation Models with LLM Reasoning [17.69077698133793]
時系列推論は、金融、エネルギー利用、交通、天候、科学的発見など、さまざまな領域における意思決定に不可欠である。
LLMは時系列データの数値的理解に苦慮することが多い。
そこで我々は,アライメント事前学習後に微調整を施したトレーニングレシピを開発した。
論文 参考訳(メタデータ) (2025-10-03T21:20:54Z) - Time-RA: Towards Time Series Reasoning for Anomaly with LLM Feedback [55.284574165467525]
Time-RA(Time-Series Reasoning for Anomaly)は、時系列異常検出を生成的、推論集約的なタスクに変換する。
また,実世界のマルチモーダルベンチマークデータセットであるRATs40Kを導入する。
論文 参考訳(メタデータ) (2025-07-20T18:02:50Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - Can Multimodal LLMs Perform Time Series Anomaly Detection? [55.534264764673296]
時系列異常検出(TSAD)におけるMLLM評価のためのVisualTimeAnomalyベンチマークを提案する。
提案手法は時系列の数値データを画像形式に変換し,これらの画像を様々なMLLMにフィードする。
VisualTimeAnomalyには3つのシナリオと3つの異常な粒度の12.4kの時系列イメージがあり、8つのMLLMに9つの異常型がある。
論文 参考訳(メタデータ) (2025-02-25T03:37:43Z) - ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced Understanding and Reasoning [10.854285913078257]
本稿では,時系列解析用に設計された新しいMLLMであるChatTSを紹介する。
ChatTSは、視覚MLLMが画像を処理する方法と同様、時系列をモダリティとして扱う。
Time Series Evol-Instructは様々な時系列Q&Aを生成し、モデルの推論能力を高めます。
論文 参考訳(メタデータ) (2024-12-04T08:06:15Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。