論文の概要: Improving the Accuracy of Global Forecasting Models using Time Series
Data Augmentation
- arxiv url: http://arxiv.org/abs/2008.02663v1
- Date: Thu, 6 Aug 2020 13:52:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 06:27:42.979550
- Title: Improving the Accuracy of Global Forecasting Models using Time Series
Data Augmentation
- Title(参考訳): 時系列データ拡張を用いたグローバル予測モデルの精度向上
- Authors: Kasun Bandara, Hansika Hewamalage, Yuan-Hao Liu, Yanfei Kang,
Christoph Bergmeir
- Abstract要約: GFM(Global Forecasting Models)として知られる多くの時系列のセットでトレーニングされた予測モデルは、競争や実世界のアプリケーションを予測する上で有望な結果を示している。
本稿では,GFMモデルのベースライン精度を向上させるための,データ拡張に基づく新しい予測フレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.38079566297881
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Forecasting models that are trained across sets of many time series, known as
Global Forecasting Models (GFM), have shown recently promising results in
forecasting competitions and real-world applications, outperforming many
state-of-the-art univariate forecasting techniques. In most cases, GFMs are
implemented using deep neural networks, and in particular Recurrent Neural
Networks (RNN), which require a sufficient amount of time series to estimate
their numerous model parameters. However, many time series databases have only
a limited number of time series. In this study, we propose a novel, data
augmentation based forecasting framework that is capable of improving the
baseline accuracy of the GFM models in less data-abundant settings. We use
three time series augmentation techniques: GRATIS, moving block bootstrap
(MBB), and dynamic time warping barycentric averaging (DBA) to synthetically
generate a collection of time series. The knowledge acquired from these
augmented time series is then transferred to the original dataset using two
different approaches: the pooled approach and the transfer learning approach.
When building GFMs, in the pooled approach, we train a model on the augmented
time series alongside the original time series dataset, whereas in the transfer
learning approach, we adapt a pre-trained model to the new dataset. In our
evaluation on competition and real-world time series datasets, our proposed
variants can significantly improve the baseline accuracy of GFM models and
outperform state-of-the-art univariate forecasting methods.
- Abstract(参考訳): global forecasting models (gfm) と呼ばれる多くの時系列のセットで訓練された予測モデルは、最近の予測競技や実世界のアプリケーションにおいて有望な結果を示しており、最先端の予測手法を上回っている。
ほとんどの場合、gfmはディープニューラルネットワークを使用して実装され、特にrecurrent neural networks (rnn)は、それらのモデルパラメータを推定するのに十分な時系列を必要とする。
しかし、多くの時系列データベースは限られた数の時系列しか持たない。
本研究では,gfmモデルのベースライン精度を少ない設定で向上させることのできる,新しいデータ拡張型予測フレームワークを提案する。
我々は, GRATIS, moving block bootstrap (MBB), dynamic time warping barycentric averaging (DBA) という3つの時系列拡張技術を用いて時系列の集合を合成的に生成する。
これらの強化時系列から得られた知識は、プール化アプローチと転送学習アプローチという2つの異なるアプローチを用いて、元のデータセットに転送される。
GFMを構築する場合、プール化されたアプローチでは、元の時系列データセットと共に拡張時系列のモデルをトレーニングしますが、転送学習アプローチでは、トレーニング済みモデルを新しいデータセットに適応させます。
コンペティションおよび実世界の時系列データセットの評価において,提案した変種はGFMモデルのベースライン精度を著しく向上し,最先端の単変量予測法より優れる。
関連論文リスト
- Tackling Data Heterogeneity in Federated Time Series Forecasting [61.021413959988216]
時系列予測は、エネルギー消費予測、病気の伝染モニタリング、天気予報など、様々な実世界の応用において重要な役割を果たす。
既存のほとんどのメソッドは、分散デバイスから中央クラウドサーバに大量のデータを収集する、集中的なトレーニングパラダイムに依存しています。
本稿では,情報合成データを補助的知識キャリアとして生成することにより,データの均一性に対処する新しいフレームワークであるFed-TRENDを提案する。
論文 参考訳(メタデータ) (2024-11-24T04:56:45Z) - Chronos: Learning the Language of Time Series [79.38691251254173]
Chronosは事前訓練された確率的時系列モデルのためのフレームワークである。
クロノスモデルでは,様々な領域の時系列データを利用して,未知の予測タスクにおけるゼロショット精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-03-12T16:53:54Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - FrAug: Frequency Domain Augmentation for Time Series Forecasting [6.508992154478217]
データ拡張(DA)は、ディープラーニングのためのトレーニングデータサイズを拡張するデファクトソリューションになっています。
本稿では、予測における拡張データ-ラベルペアのセマンティック一貫性を保証するための、単純で効果的な周波数領域拡張手法を提案する。
その結果,ほとんどの場合,FrAugはTSFモデルの予測精度を高めることができることがわかった。
論文 参考訳(メタデータ) (2023-02-18T11:25:42Z) - Pre-training Enhanced Spatial-temporal Graph Neural Network for
Multivariate Time Series Forecasting [13.441945545904504]
スケーラブルな時系列事前学習モデル(STEP)によりSTGNNが拡張される新しいフレームワークを提案する。
具体的には、非常に長期の歴史時系列から時間パターンを効率的に学習するための事前学習モデルを設計する。
我々のフレームワークは下流のSTGNNを著しく強化することができ、事前学習モデルは時間パターンを適切にキャプチャする。
論文 参考訳(メタデータ) (2022-06-18T04:24:36Z) - Ensembles of Localised Models for Time Series Forecasting [7.199741890914579]
本研究では,一般GFMや一変数モデルを用いたアンサンブル手法の活用について検討する。
私たちの作業は、クラスタリングシリーズやクラスタごとに別々のサブモデルのトレーニングなど、関連する現在のアプローチを体系化し比較します。
複数のGFMを複数のクラスタでトレーニングするクラスタアンサンブルの新しい方法論を提案します。
論文 参考訳(メタデータ) (2020-12-30T06:33:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。