論文の概要: TS-Reasoner: Aligning Time Series Foundation Models with LLM Reasoning
- arxiv url: http://arxiv.org/abs/2510.03519v1
- Date: Fri, 03 Oct 2025 21:20:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.087953
- Title: TS-Reasoner: Aligning Time Series Foundation Models with LLM Reasoning
- Title(参考訳): TS-Reasoner: LLM推論による時系列基礎モデルの調整
- Authors: Fangxu Yu, Hongyu Zhao, Tianyi Zhou,
- Abstract要約: 時系列推論は、金融、エネルギー利用、交通、天候、科学的発見など、さまざまな領域における意思決定に不可欠である。
LLMは時系列データの数値的理解に苦慮することが多い。
そこで我々は,アライメント事前学習後に微調整を施したトレーニングレシピを開発した。
- 参考スコア(独自算出の注目度): 17.69077698133793
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series reasoning is crucial to decision-making in diverse domains, including finance, energy usage, traffic, weather, and scientific discovery. While existing time series foundation models (TSFMs) can capture low-level dynamic patterns and provide accurate forecasting, further analysis usually requires additional background knowledge and sophisticated reasoning, which are lacking in most TSFMs but can be achieved through large language models (LLMs). On the other hand, without expensive post-training, LLMs often struggle with the numerical understanding of time series data. Although it is intuitive to integrate the two types of models, developing effective training recipes that align the two modalities for reasoning tasks is still an open challenge. To this end, we propose TS-Reasoner that aligns the latent representations of TSFMs with the textual inputs of LLMs for downstream understanding/reasoning tasks. Specifically, we propose a simple yet effective method to curate diverse, synthetic pairs of time series and textual captions for alignment training. We then develop a two-stage training recipe that applies instruction finetuning after the alignment pretraining. Unlike existing works that train an LLM to take time series as inputs, we leverage a pretrained TSFM and freeze it during training. Extensive experiments on several benchmarks demonstrate that TS-Reasoner not only outperforms a wide range of prevailing LLMs, Vision Language Models (VLMs), and Time Series LLMs, but also achieves this with remarkable data efficiency, e.g., using less than half the training data.
- Abstract(参考訳): 時系列推論は、金融、エネルギー利用、交通、天候、科学的発見など、さまざまな領域における意思決定に不可欠である。
既存の時系列基礎モデル(TSFM)は、低レベルの動的パターンをキャプチャし、正確な予測を提供するが、さらなる分析には、ほとんどのTSFMに欠けるが、大きな言語モデル(LLM)によって達成される、追加のバックグラウンド知識と洗練された推論が必要である。
一方、高価なポストトレーニングがなければ、LLMは時系列データの数値的理解に苦慮することが多い。
2種類のモデルを統合するのは直感的であるが、推論タスクの2つのモダリティを整合させる効果的なトレーニングレシピを開発することは、依然としてオープンな課題である。
そこで本稿では,TSFM の潜在表現と LLM のテキスト入力とを一致させる TS-Reasoner を提案する。
具体的には,多種多様で合成された時系列とテキストキャプションを用いてアライメントトレーニングを行うための,単純かつ効果的な手法を提案する。
次に,アライメント事前学習後に指導微調整を施した2段階の学習レシピを開発した。
LLMをトレーニングして時系列を入力として扱う既存の作業とは異なり、事前トレーニングされたTSFMを活用して、トレーニング中に凍結する。
いくつかのベンチマーク実験により、TS-Reasonerは、広く普及しているLLM、ビジョン言語モデル(VLM)、時系列LLMよりも優れているだけでなく、トレーニングデータの半分未満を使用して、顕著なデータ効率でこれを達成していることが示された。
関連論文リスト
- LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - CALF: Aligning LLMs for Time Series Forecasting via Cross-modal Fine-Tuning [59.88924847995279]
MTSFのためのクロスモーダルLCMファインチューニング(CALF)フレームワークを提案する。
分散の相違を低減するため,クロスモーダルマッチングモジュールを開発した。
CALFは、長期および短期の予測タスクの最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-03-12T04:04:38Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - VILA: On Pre-training for Visual Language Models [74.08039416548209]
ステップ・バイ・ステップ制御可能な比較によるVLM事前学習の設計オプションについて検討した。
私たちは、最先端のモデルよりも一貫して優れたVisual LanguageモデルファミリであるVILAを構築します。
論文 参考訳(メタデータ) (2023-12-12T18:58:18Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - LLM4TS: Aligning Pre-Trained LLMs as Data-Efficient Time-Series Forecasters [11.796765525301051]
事前学習された大言語モデル(LLM)を用いた時系列予測のためのフレームワークを提案する。
LLM4TSは、LLMを時系列データのニュアンスと整合させる2段階の微調整戦略と、下流の時系列予測タスクの予測微調整段階から構成される。
我々のフレームワークは、事前訓練されたLLM内に多段階の時間データを統合し、時間固有の情報を解釈する能力を向上する新しい2段階集約手法を特徴としている。
論文 参考訳(メタデータ) (2023-08-16T16:19:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。