論文の概要: TS-Reasoner: Aligning Time Series Foundation Models with LLM Reasoning
- arxiv url: http://arxiv.org/abs/2510.03519v1
- Date: Fri, 03 Oct 2025 21:20:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.087953
- Title: TS-Reasoner: Aligning Time Series Foundation Models with LLM Reasoning
- Title(参考訳): TS-Reasoner: LLM推論による時系列基礎モデルの調整
- Authors: Fangxu Yu, Hongyu Zhao, Tianyi Zhou,
- Abstract要約: 時系列推論は、金融、エネルギー利用、交通、天候、科学的発見など、さまざまな領域における意思決定に不可欠である。
LLMは時系列データの数値的理解に苦慮することが多い。
そこで我々は,アライメント事前学習後に微調整を施したトレーニングレシピを開発した。
- 参考スコア(独自算出の注目度): 17.69077698133793
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series reasoning is crucial to decision-making in diverse domains, including finance, energy usage, traffic, weather, and scientific discovery. While existing time series foundation models (TSFMs) can capture low-level dynamic patterns and provide accurate forecasting, further analysis usually requires additional background knowledge and sophisticated reasoning, which are lacking in most TSFMs but can be achieved through large language models (LLMs). On the other hand, without expensive post-training, LLMs often struggle with the numerical understanding of time series data. Although it is intuitive to integrate the two types of models, developing effective training recipes that align the two modalities for reasoning tasks is still an open challenge. To this end, we propose TS-Reasoner that aligns the latent representations of TSFMs with the textual inputs of LLMs for downstream understanding/reasoning tasks. Specifically, we propose a simple yet effective method to curate diverse, synthetic pairs of time series and textual captions for alignment training. We then develop a two-stage training recipe that applies instruction finetuning after the alignment pretraining. Unlike existing works that train an LLM to take time series as inputs, we leverage a pretrained TSFM and freeze it during training. Extensive experiments on several benchmarks demonstrate that TS-Reasoner not only outperforms a wide range of prevailing LLMs, Vision Language Models (VLMs), and Time Series LLMs, but also achieves this with remarkable data efficiency, e.g., using less than half the training data.
- Abstract(参考訳): 時系列推論は、金融、エネルギー利用、交通、天候、科学的発見など、さまざまな領域における意思決定に不可欠である。
既存の時系列基礎モデル(TSFM)は、低レベルの動的パターンをキャプチャし、正確な予測を提供するが、さらなる分析には、ほとんどのTSFMに欠けるが、大きな言語モデル(LLM)によって達成される、追加のバックグラウンド知識と洗練された推論が必要である。
一方、高価なポストトレーニングがなければ、LLMは時系列データの数値的理解に苦慮することが多い。
2種類のモデルを統合するのは直感的であるが、推論タスクの2つのモダリティを整合させる効果的なトレーニングレシピを開発することは、依然としてオープンな課題である。
そこで本稿では,TSFM の潜在表現と LLM のテキスト入力とを一致させる TS-Reasoner を提案する。
具体的には,多種多様で合成された時系列とテキストキャプションを用いてアライメントトレーニングを行うための,単純かつ効果的な手法を提案する。
次に,アライメント事前学習後に指導微調整を施した2段階の学習レシピを開発した。
LLMをトレーニングして時系列を入力として扱う既存の作業とは異なり、事前トレーニングされたTSFMを活用して、トレーニング中に凍結する。
いくつかのベンチマーク実験により、TS-Reasonerは、広く普及しているLLM、ビジョン言語モデル(VLM)、時系列LLMよりも優れているだけでなく、トレーニングデータの半分未満を使用して、顕著なデータ効率でこれを達成していることが示された。
関連論文リスト
- Eliciting Chain-of-Thought Reasoning for Time Series Analysis using Reinforcement Learning [2.426309874608745]
複雑な数値時系列解析は、しばしば現在のモデルの範囲を超えて多段階の推論能力を必要とする。
我々は,大規模言語モデルを訓練して,多種多様な時系列タスクに対して,検証可能な報酬付き強化学習(RL)を用いた推論を行うための,最初のフレームワークであるCOUNTS(Chain Of thought for Understanding Numerical Time Series)を紹介した。
実験により、中間CoT推論を用いたこのRL駆動方式は、様々な時系列解析タスクにおけるLLM性能を大幅に向上させ、複雑な時間的データ推論の新たな可能性を開くことを実証した。
論文 参考訳(メタデータ) (2025-10-01T17:02:28Z) - SciTS: Scientific Time Series Understanding and Generation with LLMs [53.35994674187729]
SciTSは12の科学領域と43のタスクにまたがるベンチマークである。
テキストのみのLLM、マルチモーダルのLLM、統合時系列モデルを含む17のモデルをベンチマークする。
次に、時系列を理解して生成する能力を備えたLLMに対応するフレームワークであるTime Omniを紹介します。
論文 参考訳(メタデータ) (2025-09-26T09:25:16Z) - How Important are Videos for Training Video LLMs? [55.965474658745315]
画像のみのトレーニングでは,ビデオLLMの方が時間的推論能力が高いことが示唆された。
本稿では,注釈付き画像のシーケンスと時間的機能に着目した質問を含む簡易な微調整手法を提案する。
これは、現在のモデルによるリアルタイムビデオに見られる豊富な時間的特徴の最適部分利用を示唆している。
論文 参考訳(メタデータ) (2025-06-07T21:32:19Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - Position: Empowering Time Series Reasoning with Multimodal LLMs [49.73647759532127]
マルチモーダル言語モデル (MLLM) は時系列解析においてより強力で柔軟な推論を可能にすると論じる。
我々は、MLLMにおける信頼、解釈可能性、堅牢な推論を優先する戦略を開発することで、この可能性を活用するよう研究者や実践者に呼びかける。
論文 参考訳(メタデータ) (2025-02-03T16:10:48Z) - Large Language Models are Few-shot Multivariate Time Series Classifiers [23.045734479292356]
大規模言語モデル (LLM) は時系列解析に広く応用されている。
しかし、数発の分類(すなわち重要な訓練シナリオ)におけるそれらの実用性は過小評価されている。
データ不足を克服するために,LLMの学習済み知識を幅広く活用することを目的としている。
論文 参考訳(メタデータ) (2025-01-30T03:59:59Z) - CALF: Aligning LLMs for Time Series Forecasting via Cross-modal Fine-Tuning [59.88924847995279]
MTSFのためのクロスモーダルLCMファインチューニング(CALF)フレームワークを提案する。
分散の相違を低減するため,クロスモーダルマッチングモジュールを開発した。
CALFは、長期および短期の予測タスクの最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-03-12T04:04:38Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - VILA: On Pre-training for Visual Language Models [74.08039416548209]
ステップ・バイ・ステップ制御可能な比較によるVLM事前学習の設計オプションについて検討した。
私たちは、最先端のモデルよりも一貫して優れたVisual LanguageモデルファミリであるVILAを構築します。
論文 参考訳(メタデータ) (2023-12-12T18:58:18Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - LLM4TS: Aligning Pre-Trained LLMs as Data-Efficient Time-Series Forecasters [11.796765525301051]
事前学習された大言語モデル(LLM)を用いた時系列予測のためのフレームワークを提案する。
LLM4TSは、LLMを時系列データのニュアンスと整合させる2段階の微調整戦略と、下流の時系列予測タスクの予測微調整段階から構成される。
我々のフレームワークは、事前訓練されたLLM内に多段階の時間データを統合し、時間固有の情報を解釈する能力を向上する新しい2段階集約手法を特徴としている。
論文 参考訳(メタデータ) (2023-08-16T16:19:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。