論文の概要: T-LLM: Teaching Large Language Models to Forecast Time Series via Temporal Distillation
- arxiv url: http://arxiv.org/abs/2602.01937v1
- Date: Mon, 02 Feb 2026 10:40:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.086898
- Title: T-LLM: Teaching Large Language Models to Forecast Time Series via Temporal Distillation
- Title(参考訳): T-LLM:時空蒸留による時系列予測のための大規模言語モデル
- Authors: Suhan Guo, Bingxu Wang, Shaodan Zhang, Furao Shen,
- Abstract要約: 時系列予測は多くの現実世界のアプリケーションにおいて意思決定において重要な役割を果たす。
本稿では,汎用言語モデルと時系列予測機能を組み合わせた時空間蒸留フレームワークT-LLMを提案する。
- 参考スコア(独自算出の注目度): 7.6933817667680096
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Time series forecasting plays a critical role in decision-making across many real-world applications. Unlike data in vision and language domains, time series data is inherently tied to the evolution of underlying processes and can only accumulate as real-world time progresses, limiting the effectiveness of scale-driven pretraining alone. This time-bound constraint poses a challenge for enabling large language models (LLMs) to acquire forecasting capability, as existing approaches primarily rely on representation-level alignment or inference-time temporal modules rather than explicitly teaching forecasting behavior to the LLM. We propose T-LLM, a temporal distillation framework that equips general-purpose LLMs with time series forecasting capability by transferring predictive behavior from a lightweight temporal teacher during training. The teacher combines trend modeling and frequency-domain analysis to provide structured temporal supervision, and is removed entirely at inference, leaving the LLM as the sole forecasting model. Experiments on benchmark datasets and infectious disease forecasting tasks demonstrate that T-LLM consistently outperforms existing LLM-based forecasting methods under full-shot, few-shot, and zero-shot settings, while enabling a simple and efficient deployment pipeline.
- Abstract(参考訳): 時系列予測は多くの現実世界のアプリケーションにおいて意思決定において重要な役割を果たす。
視覚領域や言語領域のデータとは異なり、時系列データは本質的に基盤となるプロセスの進化に結びついており、実際の時間経過とともに蓄積できるだけであり、スケール駆動プレトレーニングのみの有効性を制限している。
この時間制限は、LLMに予測動作を明示的に教えるのではなく、表現レベルのアライメントや推論時の時間的モジュールに依存しているため、大きな言語モデル(LLM)が予測能力を獲得するための課題となる。
本稿では,訓練中に軽度時間教師から予測行動を伝達することにより,汎用LLMと時系列予測能力とを併せ持つ時間蒸留フレームワークT-LLMを提案する。
教師は、トレンドモデリングと周波数領域分析を組み合わせることで、構造化された時間的監督を提供し、推論時に完全に除去され、LSMを唯一の予測モデルとして残す。
ベンチマークデータセットと感染症予測タスクの実験では、T-LLMは、シンプルで効率的なデプロイメントパイプラインを実現しつつ、フルショット、少数ショット、ゼロショット設定下で、既存のLLMベースの予測メソッドを一貫して上回っている。
関連論文リスト
- Is More Context Always Better? Examining LLM Reasoning Capability for Time Interval Prediction [15.45305246863211]
大規模言語モデル(LLM)は、異なるドメインをまたいだ推論と予測において印象的な能力を示している。
本稿では,LLMが繰り返しユーザの行動の時間間隔を予測できるかどうかを系統的に検討する。
我々は、統計モデルと機械学習モデルの両方に対してゼロショット設定で最先端のLCMをベンチマークする。
論文 参考訳(メタデータ) (2026-01-15T07:18:40Z) - Enhancing Zero-Shot Time Series Forecasting in Off-the-Shelf LLMs via Noise Injection [18.267727687739853]
大言語モデル(LLM)はゼロショット時系列(TS)予測器として有効であることを示した。
鍵となる課題は、TSデータを LLM の事前訓練された知識と一致したテキスト表現にトークン化することである。
LLMの事前学習スコープを利用した2つの新しいTSデータセットを導入し、改良された性能を継続的に観察する。
論文 参考訳(メタデータ) (2025-12-23T08:02:33Z) - Semantic-Enhanced Time-Series Forecasting via Large Language Models [20.383296465541758]
時系列予測は、金融、エネルギー、気象学、IoTアプリケーションにおいて重要な役割を果たす。
近年,大規模言語モデル(LLM)の一般化機能を活用して時系列予測に適応し,有望な性能を実現している。
本稿では,時系列の固有周期性と異常特性を探索し,意味空間に埋め込むセマンティック拡張LDM(SE-LLM)を提案する。
論文 参考訳(メタデータ) (2025-08-11T07:19:21Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - CALF: Aligning LLMs for Time Series Forecasting via Cross-modal Fine-Tuning [59.88924847995279]
MTSFのためのクロスモーダルLCMファインチューニング(CALF)フレームワークを提案する。
分散の相違を低減するため,クロスモーダルマッチングモジュールを開発した。
CALFは、長期および短期の予測タスクの最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-03-12T04:04:38Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。