論文の概要: Time Series Forecasting (TSF) Using Various Deep Learning Models
- arxiv url: http://arxiv.org/abs/2204.11115v1
- Date: Sat, 23 Apr 2022 17:52:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 14:54:45.909366
- Title: Time Series Forecasting (TSF) Using Various Deep Learning Models
- Title(参考訳): 各種ディープラーニングモデルを用いた時系列予測(TSF)
- Authors: Jimeng Shi, Mahek Jain, Giri Narasimhan
- Abstract要約: 時系列予測(TSF)は、過去の時刻からの学習に基づいて、将来の時刻でターゲット変数を予測するために使用される。
予測モデルの性能は、異なるルックバックウィンドウサイズと将来の予測に要する時間の違いの関数としてどのように変化するかを検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time Series Forecasting (TSF) is used to predict the target variables at a
future time point based on the learning from previous time points. To keep the
problem tractable, learning methods use data from a fixed length window in the
past as an explicit input. In this paper, we study how the performance of
predictive models change as a function of different look-back window sizes and
different amounts of time to predict into the future. We also consider the
performance of the recent attention-based Transformer models, which has had
good success in the image processing and natural language processing domains.
In all, we compare four different deep learning methods (RNN, LSTM, GRU, and
Transformer) along with a baseline method. The dataset (hourly) we used is the
Beijing Air Quality Dataset from the UCI website, which includes a multivariate
time series of many factors measured on an hourly basis for a period of 5 years
(2010-14). For each model, we also report on the relationship between the
performance and the look-back window sizes and the number of predicted time
points into the future. Our experiments suggest that Transformer models have
the best performance with the lowest Mean Average Errors (MAE = 14.599, 23.273)
and Root Mean Square Errors (RSME = 23.573, 38.131) for most of our single-step
and multi-steps predictions. The best size for the look-back window to predict
1 hour into the future appears to be one day, while 2 or 4 days perform the
best to predict 3 hours into the future.
- Abstract(参考訳): 時系列予測(TSF)は、過去の時刻からの学習に基づいて、将来の時刻でターゲット変数を予測するために使用される。
問題を扱いやすくするために、学習方法は、過去の固定長窓からのデータを明示的な入力として使用する。
本稿では,予測モデルの性能が,異なるルックバックウィンドウサイズと未来への予測に要する時間の違いの関数としてどのように変化するかを検討する。
また,画像処理と自然言語処理領域で成功を収めた近年の注意に基づくトランスフォーマーモデルの性能についても考察する。
全体として,4つの異なるディープラーニング手法(rnn,lstm,gru,transformer)とベースライン法を比較した。
私たちが使用したデータセット(時間単位)は、uciウェブサイトの北京航空品質データセットで、5年間(2010-14)の時間単位で測定された多くの要因の多変量時系列を含む。
また,各モデルについて,性能とルックバックウィンドウサイズと予測時間点数との関係について報告する。
実験の結果, 変圧器モデルの性能は, 平均誤差が最も低く (mae = 14.599, 23.273) , 根平均二乗誤差 (rsme = 23.573, 38.131) であることがわかった。
振り返りウィンドウが未来に1時間近付くのに最適なサイズは1日であり、2日か4日は未来に3時間近づくのに最適である。
関連論文リスト
- ViTime: A Visual Intelligence-Based Foundation Model for Time Series Forecasting [38.87384888881476]
本稿では,時系列予測のためのビジュアルインテリジェンスに基づく新しい基礎モデルであるViTimeを提案する。
これまで目にしなかったさまざまな予測データセットの実験は、ViTimeが最先端のゼロショットパフォーマンスを達成することを実証している。
論文 参考訳(メタデータ) (2024-07-10T02:11:01Z) - Chronos: Learning the Language of Time Series [79.38691251254173]
Chronosは事前訓練された確率的時系列モデルのためのフレームワークである。
クロノスモデルでは,様々な領域の時系列データを利用して,未知の予測タスクにおけるゼロショット精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-03-12T16:53:54Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Contrastive Difference Predictive Coding [79.74052624853303]
本研究では、時系列データの断片を縫合して、将来の事象の予測を学習するために必要なデータの量を減少させるコントラッシブ予測符号化の時間差版を導入する。
目的条件付きRLの非政治アルゴリズムを導出するために,この表現学習手法を適用した。
論文 参考訳(メタデータ) (2023-10-31T03:16:32Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - A Transformer-based Framework For Multi-variate Time Series: A Remaining
Useful Life Prediction Use Case [4.0466311968093365]
本研究は,時系列予測のためのエンコーダ変換アーキテクチャに基づくフレームワークを提案する。
C-MAPPSベンチマークデータセットの4セットすべてに対して,提案手法の有効性を検証した。
機械寿命の初期段階と劣化経路のモデル認識を可能にするため, 新たな拡張窓手法が提案された。
論文 参考訳(メタデータ) (2023-08-19T02:30:35Z) - GC-GRU-N for Traffic Prediction using Loop Detector Data [5.735035463793008]
シアトルのループ検出器のデータを15分以上収集し、その問題を時空で再現する。
モデルは、最速の推論時間と非常に近いパフォーマンスで第2位(トランスフォーマー)。
論文 参考訳(メタデータ) (2022-11-13T06:32:28Z) - Split Time Series into Patches: Rethinking Long-term Series Forecasting
with Dateformer [17.454822366228335]
時間は時系列の最も重要な特徴の1つだが、あまり注目されていない。
本稿では、上記のプラクティスに従うのではなく、モデリング時間に注意を向けるDateformerを提案する。
ディザフォーマーは、40%の顕著な相対的な改善で最先端の精度を達成し、最大信頼性予測範囲を半年レベルに拡大する。
論文 参考訳(メタデータ) (2022-07-12T08:58:44Z) - Adaptive Graph Convolutional Network Framework for Multidimensional Time
Series Prediction [6.962213869946514]
本稿では,主に時系列予測における隠れ次元依存性を捉える適応型グラフニューラルネットワークを提案する。
グラフ畳み込みネットワークを様々な時系列予測モデルに統合し、異なる次元間の関係を捉えることができない欠陥を解決する。
私たちのフレームワークの精度は、モデルに導入されてから約10%向上しました。
論文 参考訳(メタデータ) (2022-05-08T04:50:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。