論文の概要: Neural forecasting at scale
- arxiv url: http://arxiv.org/abs/2109.09705v2
- Date: Tue, 21 Sep 2021 13:34:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 10:53:24.696626
- Title: Neural forecasting at scale
- Title(参考訳): スケールでのニューラル予測
- Authors: Philippe Chatigny, Shengrui Wang Jean-Marc Patenaude, Boris N.
Oreshkin
- Abstract要約: 本研究では,大規模な時系列集合上での時系列予測のために,アンサンブルに基づくディープニューラルネットワークを効率的にスケーリングする問題について検討する。
我々のモデルは、関連するモデルの実用的限界に対処し、トレーニング時間を半減し、メモリ要件を5。
- 参考スコア(独自算出の注目度): 8.690824244172111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of efficiently scaling ensemble-based deep neural
networks for time series (TS) forecasting on a large set of time series.
Current state-of-the-art deep ensemble models have high memory and
computational requirements, hampering their use to forecast millions of TS in
practical scenarios. We propose N-BEATS(P), a global multivariate variant of
the N-BEATS model designed to allow simultaneous training of multiple
univariate TS forecasting models. Our model addresses the practical limitations
of related models, reducing the training time by half and memory requirement by
a factor of 5, while keeping the same level of accuracy. We have performed
multiple experiments detailing the various ways to train our model and have
obtained results that demonstrate its capacity to support zero-shot TS
forecasting, i.e., to train a neural network on a source TS dataset and deploy
it on a different target TS dataset without retraining, which provides an
efficient and reliable solution to forecast at scale even in difficult
forecasting conditions.
- Abstract(参考訳): 本研究では,時系列予測のためのアンサンブル型深層ニューラルネットワークの効率良くスケーリングする問題について検討する。
現在の最先端のディープアンサンブルモデルでは、メモリと計算の要求が高く、現実的なシナリオでは数百万のTSを予測できない。
N-BEATS(P)は、複数の単変量TS予測モデルの同時学習を可能にするために設計されたN-BEATSモデルのグローバル多変量変種である。
本モデルでは,学習時間を半減し,メモリ要件を5倍に抑えるとともに,同一レベルの精度を維持しながら,関連モデルの実用的限界に対処する。
我々は、モデルをトレーニングする方法を詳細に説明した複数の実験を行い、ゼロショットTS予測をサポートする能力、すなわち、ソースTSデータセット上でニューラルネットワークをトレーニングし、リトレーニングなしで異なるターゲットTSデータセットにデプロイする能力を示す結果を得た。
関連論文リスト
- Time-MoE: Billion-Scale Time Series Foundation Models with Mixture of Experts [25.503695417712997]
Time-MoEは、より大きく、より有能な基礎モデルを予測するために設計された、スケーラブルで統一されたアーキテクチャである。
Time-MoEは、予測毎にネットワークのサブセットだけを活性化することで、計算効率を向上させる。
時系列基礎モデルを24億のパラメータに拡張し,予測精度を大幅に向上させた。
論文 参考訳(メタデータ) (2024-09-24T12:42:18Z) - Online model error correction with neural networks: application to the
Integrated Forecasting System [0.27930367518472443]
ニューラルネットワークを用いた中レージ気象予報センターのモデル誤差補正手法を開発した。
ネットワークは、運用分析と分析インクリメントの大規模なデータセットを使用して、オフラインで事前トレーニングされている。
その後、データ同化や予測実験に使用されるように、オブジェクト指向予測システム(OOPS)内のIFSに統合される。
論文 参考訳(メタデータ) (2024-03-06T13:36:31Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - Probabilistic AutoRegressive Neural Networks for Accurate Long-range
Forecasting [6.295157260756792]
確率的自己回帰ニューラルネットワーク(PARNN)について紹介する。
PARNNは、非定常性、非線形性、非調和性、長距離依存、カオスパターンを示す複雑な時系列データを扱うことができる。
本研究では,Transformers,NBeats,DeepARなどの標準統計モデル,機械学習モデル,ディープラーニングモデルに対して,PARNNの性能を評価する。
論文 参考訳(メタデータ) (2022-04-01T17:57:36Z) - Randomized Neural Networks for Forecasting Time Series with Multiple
Seasonality [0.0]
この研究は、新しいランダム化に基づく学習手法を用いたニューラル予測モデルの開発に寄与する。
時系列のパターンに基づく表現は、複数の季節の時系列を予測するのに有用である。
論文 参考訳(メタデータ) (2021-07-04T18:39:27Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Learning Interpretable Deep State Space Model for Probabilistic Time
Series Forecasting [98.57851612518758]
確率的時系列予測は、その歴史に基づいて将来の分布を推定する。
本稿では,非線形エミッションモデルと遷移モデルとをネットワークによってパラメータ化した,確率的時系列予測のための深部状態空間モデルを提案する。
実験では,我々のモデルが正確かつ鋭い確率予測を生成することを示す。
論文 参考訳(メタデータ) (2021-01-31T06:49:33Z) - Spatiotemporal Adaptive Neural Network for Long-term Forecasting of
Financial Time Series [0.2793095554369281]
本稿では,ディープニューラルネットワーク(DNN)が時系列予測(TS)の同時予測に利用できるかどうかを検討する。
動的因子グラフ(DFG)を用いて多変量自己回帰モデルを構築する。
ACTMでは、TSモデルの自己回帰順序を時間とともに変化させ、より大きな確率分布をモデル化することができる。
論文 参考訳(メタデータ) (2020-03-27T00:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。