論文の概要: ForecastNet: A Time-Variant Deep Feed-Forward Neural Network
Architecture for Multi-Step-Ahead Time-Series Forecasting
- arxiv url: http://arxiv.org/abs/2002.04155v2
- Date: Sat, 27 Jun 2020 23:24:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 01:19:21.751127
- Title: ForecastNet: A Time-Variant Deep Feed-Forward Neural Network
Architecture for Multi-Step-Ahead Time-Series Forecasting
- Title(参考訳): ForecastNet:マルチステップの時系列予測のための時間変化型ディープフィードフォワードニューラルネットワークアーキテクチャ
- Authors: Joel Janek Dabrowski, YiFan Zhang, Ashfaqur Rahman
- Abstract要約: 本稿では,フィードフォワードアーキテクチャを用いて時間変動モデルを提供するForecastNetを提案する。
ForecastNetは、いくつかのデータセットで統計的およびディープラーニングベンチマークモデルを上回るパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 6.043572971237165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recurrent and convolutional neural networks are the most common architectures
used for time series forecasting in deep learning literature. These networks
use parameter sharing by repeating a set of fixed architectures with fixed
parameters over time or space. The result is that the overall architecture is
time-invariant (shift-invariant in the spatial domain) or stationary. We argue
that time-invariance can reduce the capacity to perform multi-step-ahead
forecasting, where modelling the dynamics at a range of scales and resolutions
is required. We propose ForecastNet which uses a deep feed-forward architecture
to provide a time-variant model. An additional novelty of ForecastNet is
interleaved outputs, which we show assist in mitigating vanishing gradients.
ForecastNet is demonstrated to outperform statistical and deep learning
benchmark models on several datasets.
- Abstract(参考訳): 繰り返しおよび畳み込みニューラルネットワークは、ディープラーニング文学において時系列予測に使用される最も一般的なアーキテクチャである。
これらのネットワークは、時間や空間で固定されたパラメータを持つ固定されたアーキテクチャの集合を繰り返すことでパラメータ共有を使用する。
その結果、全体のアーキテクチャは時間不変(空間領域におけるシフト不変)または定常である。
我々は、時間不変性は、スケールや解像度の範囲でダイナミクスをモデル化する必要があるマルチステップ・アヘッド予測を行う能力を低減することができると主張する。
本稿では,フィードフォワードアーキテクチャを用いて時間変動モデルを提供するForecastNetを提案する。
ForecastNetの新たな新しい特徴はインターリーブされた出力であり、消滅する勾配を緩和する助けを示す。
ForecastNetは、いくつかのデータセットで統計的およびディープラーニングベンチマークモデルを上回るパフォーマンスを示す。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Gated Recurrent Neural Networks with Weighted Time-Delay Feedback [59.125047512495456]
重み付き時間遅延フィードバック機構を備えた新しいゲートリカレントユニット(GRU)を導入する。
我々は、$tau$-GRUが、最先端のリカレントユニットやゲート型リカレントアーキテクチャよりも早く収束し、より一般化できることを示します。
論文 参考訳(メタデータ) (2022-12-01T02:26:34Z) - Stochastic Recurrent Neural Network for Multistep Time Series
Forecasting [0.0]
我々は、時系列予測のための繰り返しニューラルネットワークの適応を提案するために、深部生成モデルと状態空間モデルの概念の進歩を活用する。
私たちのモデルは、すべての関連情報が隠された状態でカプセル化されるリカレントニューラルネットワークのアーキテクチャ的な動作を保ち、この柔軟性により、モデルはシーケンシャルモデリングのために任意のディープアーキテクチャに簡単に統合できます。
論文 参考訳(メタデータ) (2021-04-26T01:43:43Z) - Radflow: A Recurrent, Aggregated, and Decomposable Model for Networks of
Time Series [77.47313102926017]
Radflowは、お互いに影響を与える時系列ネットワークの新しいモデルである。
それは3つの重要なアイデアを具現化します:時間に依存するノード埋め込み、マルチヘッドの注意を持つ隣接するノードからの影響の流れの集約、および時系列の多層分解を得るための繰り返しニューラルネットワーク。
radflowは異なる傾向や季節パターンを学習でき、欠落したノードやエッジに対して頑健であり、ネットワークの隣人間の時間パターンの相関は影響強度を反映している。
論文 参考訳(メタデータ) (2021-02-15T00:57:28Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - LAVARNET: Neural Network Modeling of Causal Variable Relationships for
Multivariate Time Series Forecasting [18.89688469820947]
新たなニューラルネットワークベースのアーキテクチャである LAgged VAriable NETwork が提案されている。
これは本質的に潜在ラグ変数の重要性を推定し、それらの高次元表現を組み合わせて将来の値時系列を予測する。
我々のモデルは、気象学、音楽、太陽活動、金融分野のシミュレーションデータセットと4つの実際のデータセットに基づいて、他のベースラインと最先端のニューラルネットワークアーキテクチャと比較した。
論文 参考訳(メタデータ) (2020-09-02T10:57:28Z) - Orthogonalized SGD and Nested Architectures for Anytime Neural Networks [30.598394152055338]
直交化SGDはマルチタスクネットワークをトレーニングする際のタスク固有の勾配を動的に再バランスさせる。
実験により、オルソゴン化SGDによるトレーニングは、任意の時間ネットワークの精度を大幅に向上することが示された。
論文 参考訳(メタデータ) (2020-08-15T03:06:34Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z) - On the performance of deep learning models for time series
classification in streaming [0.0]
この研究は、データストリーミング分類のための様々なタイプのディープアーキテクチャのパフォーマンスを評価することである。
複数の時系列データセット上で,多層パーセプトロン,リカレント,畳み込み,時間的畳み込みニューラルネットワークなどのモデルを評価する。
論文 参考訳(メタデータ) (2020-03-05T11:41:29Z) - Stacked Boosters Network Architecture for Short Term Load Forecasting in
Buildings [0.0]
本稿では,建築エネルギー負荷の短期的負荷予測のための新しいディープラーニングアーキテクチャを提案する。
このアーキテクチャは、単純なベースラーナーと、単一のディープニューラルネットワークとしてモデル化された複数のブースティングシステムに基づいている。
このアーキテクチャは、フィンランドのオフィスビルのエネルギーデータを用いて、短期的な負荷予測タスクで評価される。
論文 参考訳(メタデータ) (2020-01-23T08:35:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。