論文の概要: In-Context and Few-Shots Learning for Forecasting Time Series Data based on Large Language Models
- arxiv url: http://arxiv.org/abs/2512.07705v1
- Date: Mon, 08 Dec 2025 16:52:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.967907
- Title: In-Context and Few-Shots Learning for Forecasting Time Series Data based on Large Language Models
- Title(参考訳): 大規模言語モデルに基づく時系列データの予測のための文脈内学習とFew-Shots学習
- Authors: Saroj Gopali, Bipin Chhetri, Deepika Giri, Sima Siami-Namini, Akbar Siami Namin,
- Abstract要約: 本稿では,LLMモデルを用いた時系列データ予測の性能について検討する。
OpenAI tt o4-mini と Gemini 2.5 Flash Lite を用いて,LLM をコンテキスト内,ゼロショット学習,少数ショット学習,時系列データの予測を通じてトレーニングする。
以上の結果から, TimesFMはRMSE値が0.3023, 競合推論時間が266秒で, 総合性能が最高であることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing data-driven approaches in modeling and predicting time series data include ARIMA (Autoregressive Integrated Moving Average), Transformer-based models, LSTM (Long Short-Term Memory) and TCN (Temporal Convolutional Network). These approaches, and in particular deep learning-based models such as LSTM and TCN, have shown great results in predicting time series data. With the advancement of leveraging pre-trained foundation models such as Large Language Models (LLMs) and more notably Google's recent foundation model for time series data, {\it TimesFM} (Time Series Foundation Model), it is of interest to investigate whether these foundation models have the capability of outperforming existing modeling approaches in analyzing and predicting time series data. This paper investigates the performance of using LLM models for time series data prediction. We investigate the in-context learning methodology in the training of LLM models that are specific to the underlying application domain. More specifically, the paper explores training LLMs through in-context, zero-shot and few-shot learning and forecasting time series data with OpenAI {\tt o4-mini} and Gemini 2.5 Flash Lite, as well as the recent Google's Transformer-based TimesFM, a time series-specific foundation model, along with two deep learning models, namely TCN and LSTM networks. The findings indicate that TimesFM has the best overall performance with the lowest RMSE value (0.3023) and the competitive inference time (266 seconds). Furthermore, OpenAI's o4-mini also exhibits a good performance based on Zero Shot learning. These findings highlight pre-trained time series foundation models as a promising direction for real-time forecasting, enabling accurate and scalable deployment with minimal model adaptation.
- Abstract(参考訳): ARIMA(Autoregressive Integrated Average)、Transformerベースのモデル、LSTM(Long Short-Term Memory)、TCN(Temporal Convolutional Network)などである。
これらのアプローチ、特にLSTMやTCNのような深層学習モデルでは、時系列データの予測に大きな結果が得られている。
大規模言語モデル(LLMs)やGoogleの最近の時系列データ基盤モデル(Time Series Foundation Model)の活用が進むにつれ、これらの基礎モデルが時系列データの解析と予測において既存のモデリングアプローチを上回る性能を持つかどうかが注目される。
本稿では,LLMモデルを用いた時系列データ予測の性能について検討する。
基礎となるアプリケーション領域に特有なLLMモデルのトレーニングにおけるコンテキスト内学習手法について検討する。
より具体的には、本論文では、OpenAI {\tt o4-mini} と Gemini 2.5 Flash Lite によるインコンテキスト、ゼロショット学習、少ショット学習、時系列データの予測、および最近の Google の Transformer ベースの TimesFM による時系列固有の基礎モデル、TN と LSTM ネットワークという2つのディープラーニングモデルによる LLM のトレーニングについて検討している。
その結果, TimesFMはRMSE値が0.3023, 競合推算時間が266秒で, 総合的な性能が最高であることが示唆された。
さらに、OpenAIのo4-miniはZero Shot Learningに基づいた優れたパフォーマンスを示している。
これらの結果は、トレーニング済みの時系列基礎モデルをリアルタイム予測の有望な方向として強調し、最小限のモデル適応による正確でスケーラブルなデプロイメントを可能にした。
関連論文リスト
- SEMPO: Lightweight Foundation Models for Time Series Forecasting [45.456949943052116]
SEMPOは比較的小規模なデータに対する事前トレーニングを必要とする軽量な基礎モデルであるが、強い時系列予測を示す。
SEMPOは、1)エネルギーを意識したSpEctral分解モジュールと、事前学習データの利用を大幅に改善する2つの重要なモジュールから構成される。
16のデータセットをカバーする2つの大規模ベンチマークの実験は、ゼロショットと少数ショットの予測シナリオの両方でSEMPOの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-10-22T15:58:44Z) - ARIES: Relation Assessment and Model Recommendation for Deep Time Series Forecasting [54.57031153712623]
ARIESは時系列特性とモデリング戦略の関係を評価するためのフレームワークである。
実世界の時系列に解釈可能な提案を提供することのできる,最初の深層予測モデルレコメンデータを提案する。
論文 参考訳(メタデータ) (2025-09-07T13:57:14Z) - CC-Time: Cross-Model and Cross-Modality Time Series Forecasting [24.3769011945143]
時系列予測のためのPLMを用いたクロスモデル・クロスモーダル学習(CC-Time)を提案する。
第1の側面では、CC-Timeは、時系列シーケンスと対応するテキスト記述の両方から、言語モデルにおける時間的依存とチャネル相関をモデル化するために、相互モダリティ学習を取り入れている。
第2の側面では、CC-Timeはさらに、PLMと時系列モデルからの知識を適応的に統合し、より包括的な時系列パターンのモデリングを形成するクロスモデル融合ブロックを提案する。
論文 参考訳(メタデータ) (2025-08-17T04:31:23Z) - Chronos: Learning the Language of Time Series [79.38691251254173]
Chronosは事前訓練された確率的時系列モデルのためのフレームワークである。
クロノスモデルでは,様々な領域の時系列データを利用して,未知の予測タスクにおけるゼロショット精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-03-12T16:53:54Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - A Comparative Study of Detecting Anomalies in Time Series Data Using
LSTM and TCN Models [2.007262412327553]
本稿では,2つの著名なディープラーニングモデリング手法を比較した。
Recurrent Neural Network (RNN)-based Long Short-Term Memory (LSTM) と Convolutional Neural Network (CNN)-based Temporal Convolutional Networks (TCN) を比較した。
論文 参考訳(メタデータ) (2021-12-17T02:46:55Z) - Improving the Accuracy of Global Forecasting Models using Time Series
Data Augmentation [7.38079566297881]
GFM(Global Forecasting Models)として知られる多くの時系列のセットでトレーニングされた予測モデルは、競争や実世界のアプリケーションを予測する上で有望な結果を示している。
本稿では,GFMモデルのベースライン精度を向上させるための,データ拡張に基づく新しい予測フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-06T13:52:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。