論文の概要: Neural forecasting at scale
- arxiv url: http://arxiv.org/abs/2109.09705v3
- Date: Wed, 22 Sep 2021 15:23:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 10:37:55.535307
- Title: Neural forecasting at scale
- Title(参考訳): スケールでのニューラル予測
- Authors: Philippe Chatigny, Shengrui Wang, Jean-Marc Patenaude, Boris N.
Oreshkin
- Abstract要約: 本研究では,大規模な時系列集合上での時系列予測のために,アンサンブルに基づくディープニューラルネットワークを効率的にスケーリングする問題について検討する。
我々のモデルは、関連するモデルの実用的限界に対処し、トレーニング時間を半減し、メモリ要件を5。
- 参考スコア(独自算出の注目度): 8.245069318446415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of efficiently scaling ensemble-based deep neural
networks for time series (TS) forecasting on a large set of time series.
Current state-of-the-art deep ensemble models have high memory and
computational requirements, hampering their use to forecast millions of TS in
practical scenarios. We propose N-BEATS(P), a global multivariate variant of
the N-BEATS model designed to allow simultaneous training of multiple
univariate TS forecasting models. Our model addresses the practical limitations
of related models, reducing the training time by half and memory requirement by
a factor of 5, while keeping the same level of accuracy. We have performed
multiple experiments detailing the various ways to train our model and have
obtained results that demonstrate its capacity to support zero-shot TS
forecasting, i.e., to train a neural network on a source TS dataset and deploy
it on a different target TS dataset without retraining, which provides an
efficient and reliable solution to forecast at scale even in difficult
forecasting conditions.
- Abstract(参考訳): 本研究では,時系列予測のためのアンサンブル型深層ニューラルネットワークの効率良くスケーリングする問題について検討する。
現在の最先端のディープアンサンブルモデルでは、メモリと計算の要求が高く、現実的なシナリオでは数百万のTSを予測できない。
N-BEATS(P)は、複数の単変量TS予測モデルの同時学習を可能にするために設計されたN-BEATSモデルのグローバル多変量変種である。
本モデルでは,学習時間を半減し,メモリ要件を5倍に抑えるとともに,同一レベルの精度を維持しながら,関連モデルの実用的限界に対処する。
我々は、モデルをトレーニングする方法を詳細に説明した複数の実験を行い、ゼロショットTS予測をサポートする能力、すなわち、ソースTSデータセット上でニューラルネットワークをトレーニングし、リトレーニングなしで異なるターゲットTSデータセットにデプロイする能力を示す結果を得た。
関連論文リスト
- Generative Pretrained Hierarchical Transformer for Time Series
Forecasting [4.012001172505646]
本稿ではGPHTと呼ばれる予測のための新しい生成事前学習型階層型トランスフォーマアーキテクチャを提案する。
一方、我々は、様々なデータシナリオから様々なデータセットから構成される、モデルを事前訓練するための混合データセットの構築を提唱する。
一方、GPHTはチャネルに依存しない仮定の下で自己回帰予測手法を採用し、出力系列における時間的依存関係を効果的にモデル化する。
論文 参考訳(メタデータ) (2024-02-26T11:54:54Z) - Timer: Transformers for Time Series Analysis at Scale [87.9808714449511]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - A Systematic Approach to Robustness Modelling for Deep Convolutional
Neural Networks [0.294944680995069]
最近の研究は、より大きなモデルが制御された列車やテストセット外のデータに一般化できるかどうかという疑問を提起している。
本稿では,障害発生確率を時間関数としてモデル化する手法を提案する。
コスト、ロバスト性、レイテンシ、信頼性のトレードオフについて検討し、より大きなモデルが敵のロバスト性に大きく寄与しないことを示す。
論文 参考訳(メタデータ) (2024-01-24T19:12:37Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - Probabilistic AutoRegressive Neural Networks for Accurate Long-range
Forecasting [6.295157260756792]
確率的自己回帰ニューラルネットワーク(PARNN)について紹介する。
PARNNは、非定常性、非線形性、非調和性、長距離依存、カオスパターンを示す複雑な時系列データを扱うことができる。
本研究では,Transformers,NBeats,DeepARなどの標準統計モデル,機械学習モデル,ディープラーニングモデルに対して,PARNNの性能を評価する。
論文 参考訳(メタデータ) (2022-04-01T17:57:36Z) - Randomized Neural Networks for Forecasting Time Series with Multiple
Seasonality [0.0]
この研究は、新しいランダム化に基づく学習手法を用いたニューラル予測モデルの開発に寄与する。
時系列のパターンに基づく表現は、複数の季節の時系列を予測するのに有用である。
論文 参考訳(メタデータ) (2021-07-04T18:39:27Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Learning Interpretable Deep State Space Model for Probabilistic Time
Series Forecasting [98.57851612518758]
確率的時系列予測は、その歴史に基づいて将来の分布を推定する。
本稿では,非線形エミッションモデルと遷移モデルとをネットワークによってパラメータ化した,確率的時系列予測のための深部状態空間モデルを提案する。
実験では,我々のモデルが正確かつ鋭い確率予測を生成することを示す。
論文 参考訳(メタデータ) (2021-01-31T06:49:33Z) - Spatiotemporal Adaptive Neural Network for Long-term Forecasting of
Financial Time Series [0.2793095554369281]
本稿では,ディープニューラルネットワーク(DNN)が時系列予測(TS)の同時予測に利用できるかどうかを検討する。
動的因子グラフ(DFG)を用いて多変量自己回帰モデルを構築する。
ACTMでは、TSモデルの自己回帰順序を時間とともに変化させ、より大きな確率分布をモデル化することができる。
論文 参考訳(メタデータ) (2020-03-27T00:53:11Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。