論文の概要: TimeGPT in Load Forecasting: A Large Time Series Model Perspective
- arxiv url: http://arxiv.org/abs/2404.04885v1
- Date: Sun, 7 Apr 2024 09:05:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 19:11:06.273356
- Title: TimeGPT in Load Forecasting: A Large Time Series Model Perspective
- Title(参考訳): TimeGPT in Load Forecasting: A Large Time Series Model Perspective
- Authors: Wenlong Liao, Fernando Porte-Agel, Jiannong Fang, Christian Rehtanz, Shouxiang Wang, Dechang Yang, Zhe Yang,
- Abstract要約: 機械学習モデルは、負荷予測に大きな進歩を遂げているが、過去の負荷データが不足している場合に、その予測精度は制限されている。
本稿では,負荷予測における時系列モデルの可能性について考察する。
- 参考スコア(独自算出の注目度): 38.92798207166188
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning models have made significant progress in load forecasting, but their forecast accuracy is limited in cases where historical load data is scarce. Inspired by the outstanding performance of large language models (LLMs) in computer vision and natural language processing, this paper aims to discuss the potential of large time series models in load forecasting with scarce historical data. Specifically, the large time series model is constructed as a time series generative pre-trained transformer (TimeGPT), which is trained on massive and diverse time series datasets consisting of 100 billion data points (e.g., finance, transportation, banking, web traffic, weather, energy, healthcare, etc.). Then, the scarce historical load data is used to fine-tune the TimeGPT, which helps it to adapt to the data distribution and characteristics associated with load forecasting. Simulation results show that TimeGPT outperforms the benchmarks (e.g., popular machine learning models and statistical models) for load forecasting on several real datasets with scarce training samples, particularly for short look-ahead times. However, it cannot be guaranteed that TimeGPT is always superior to benchmarks for load forecasting with scarce data, since the performance of TimeGPT may be affected by the distribution differences between the load data and the training data. In practical applications, we can divide the historical data into a training set and a validation set, and then use the validation set loss to decide whether TimeGPT is the best choice for a specific dataset.
- Abstract(参考訳): 機械学習モデルは、負荷予測に大きな進歩を遂げているが、過去の負荷データが不足している場合に、その予測精度は制限されている。
本稿では,コンピュータビジョンと自然言語処理における大規模言語モデル(LLM)の卓越した性能に着想を得て,負荷予測における大規模時系列モデルの可能性について検討する。
具体的には、1000億のデータポイント(例えば、金融、交通、銀行、Webトラフィック、天気、エネルギー、医療など)からなる大規模で多様な時系列データセットに基づいてトレーニングされた時系列生成事前訓練型トランスフォーマー(TimeGPT)として、大規模な時系列モデルを構築している。
そして、少ない履歴負荷データを用いてTimeGPTを微調整し、負荷予測に関連するデータ分布と特性に適応する。
シミュレーションの結果,TimeGPTはトレーニングサンプルが少ない実データセット,特にショートルックアヘッド時間において,負荷予測のベンチマーク(一般的な機械学習モデルや統計モデルなど)よりも優れていた。
しかし,TimeGPTは負荷データとトレーニングデータとの分布差の影響を受けやすいため,負荷予測のベンチマークよりも常に優れているという保証は得られない。
実践的なアプリケーションでは、履歴データをトレーニングセットと検証セットに分割し、検証セットの損失を使用して、TimeGPTが特定のデータセットに最適な選択かどうかを判断する。
関連論文リスト
- Scaling Law for Time Series Forecasting [8.967263259533036]
大規模データセット、複雑なモデル、強化されたデータの粒度に報いるスケーリング法則は、ディープラーニングの様々な分野において観察されている。
しかし、時系列予測の研究は、時系列予測のためのディープラーニング手法のスケーリング行動に疑問を投げかけている。
本稿では,このような異常な振る舞いを説明できる時系列予測法則のスケーリング理論を提案する。
論文 参考訳(メタデータ) (2024-05-24T00:46:27Z) - Chronos: Learning the Language of Time Series [79.38691251254173]
Chronosは事前訓練された確率的時系列モデルのためのフレームワークである。
クロノスモデルでは,様々な領域の時系列データを利用して,未知の予測タスクにおけるゼロショット精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-03-12T16:53:54Z) - Probing the Robustness of Time-series Forecasting Models with
CounterfacTS [1.823020744088554]
我々は,時系列予測タスクにおけるディープラーニングモデルの堅牢性を調査するツールであるCounterfacTSを提示し,公開する。
CounterfacTSにはユーザフレンドリーなインターフェースがあり、時系列データとその予測を視覚化、比較、定量化することができる。
論文 参考訳(メタデータ) (2024-03-06T07:34:47Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series Forecasting [24.834846119163885]
本稿では,時系列表現を効果的に学習できる新しいフレームワークTEMPOを提案する。
TEMPOは、様々な領域のデータから現実世界の時間現象を動的にモデル化する機能を拡張する。
論文 参考訳(メタデータ) (2023-10-08T00:02:25Z) - Temporal Graph Benchmark for Machine Learning on Temporal Graphs [54.52243310226456]
テンポラルグラフベンチマーク(TGB)は、困難で多様なベンチマークデータセットのコレクションである。
各データセットをベンチマークし、共通のモデルのパフォーマンスがデータセット間で大きく異なることを発見した。
TGBは、再現可能でアクセス可能な時間グラフ研究のための自動機械学習パイプラインを提供する。
論文 参考訳(メタデータ) (2023-07-03T13:58:20Z) - Learning Non-Stationary Time-Series with Dynamic Pattern Extractions [16.19692047595777]
最先端のアルゴリズムは、定常時間データを扱う上で、優れたパフォーマンスを実現している。
定常時系列に対処する伝統的なアルゴリズムは、Forexトレーディングのような静止しないシリーズには適用されない。
本稿では,非定常時系列列の予測の精度を向上する適用モデルについて検討する。
論文 参考訳(メタデータ) (2021-11-20T10:52:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。