論文の概要: Stochastic Recurrent Neural Network for Multistep Time Series
Forecasting
- arxiv url: http://arxiv.org/abs/2104.12311v1
- Date: Mon, 26 Apr 2021 01:43:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 02:13:37.275595
- Title: Stochastic Recurrent Neural Network for Multistep Time Series
Forecasting
- Title(参考訳): 多段階時系列予測のための確率的リカレントニューラルネットワーク
- Authors: Zexuan Yin, Paolo Barucca
- Abstract要約: 我々は、時系列予測のための繰り返しニューラルネットワークの適応を提案するために、深部生成モデルと状態空間モデルの概念の進歩を活用する。
私たちのモデルは、すべての関連情報が隠された状態でカプセル化されるリカレントニューラルネットワークのアーキテクチャ的な動作を保ち、この柔軟性により、モデルはシーケンシャルモデリングのために任意のディープアーキテクチャに簡単に統合できます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series forecasting based on deep architectures has been gaining
popularity in recent years due to their ability to model complex non-linear
temporal dynamics. The recurrent neural network is one such model capable of
handling variable-length input and output. In this paper, we leverage recent
advances in deep generative models and the concept of state space models to
propose a stochastic adaptation of the recurrent neural network for
multistep-ahead time series forecasting, which is trained with stochastic
gradient variational Bayes. In our model design, the transition function of the
recurrent neural network, which determines the evolution of the hidden states,
is stochastic rather than deterministic as in a regular recurrent neural
network; this is achieved by incorporating a latent random variable into the
transition process which captures the stochasticity of the temporal dynamics.
Our model preserves the architectural workings of a recurrent neural network
for which all relevant information is encapsulated in its hidden states, and
this flexibility allows our model to be easily integrated into any deep
architecture for sequential modelling. We test our model on a wide range of
datasets from finance to healthcare; results show that the stochastic recurrent
neural network consistently outperforms its deterministic counterpart.
- Abstract(参考訳): 近年,複雑な非線形時間ダイナミクスをモデル化する能力により,深層構造に基づく時系列予測が普及している。
リカレントニューラルネットワークは、可変長入力と出力を処理できるモデルの一つである。
本稿では, 深部生成モデルと状態空間モデルの概念の最近の進歩を活用し, 確率勾配変動ベイズを訓練したマルチステップ・アヘッド時系列予測のための再帰的ニューラルネットワークの確率的適応を提案する。
我々のモデル設計では、隠れ状態の進化を決定するリカレントニューラルネットワークの遷移関数は、通常のリカレントニューラルネットワークのように決定論的ではなく確率的である。
我々のモデルは、すべての関連する情報が隠された状態にカプセル化されるリカレントニューラルネットワークのアーキテクチャ動作を保ち、この柔軟性により、シーケンシャルなモデリングのための深いアーキテクチャに容易に統合できる。
我々は、金融から医療まで幅広いデータセットでモデルをテストし、その結果、確率的リカレントニューラルネットワークが決定論的アルゴリズムよりも一貫して優れていることを示した。
関連論文リスト
- Gradient-free training of recurrent neural networks [3.272216546040443]
本稿では,勾配に基づく手法を使わずに再帰型ニューラルネットワークの重みとバイアスを全て構成する計算手法を提案する。
このアプローチは、動的システムに対するランダムな特徴ネットワークとクープマン作用素理論の組み合わせに基づいている。
時系列の計算実験,カオス力学系の予測,制御問題などにおいて,構築したリカレントニューラルネットワークのトレーニング時間と予測精度が向上することが観察された。
論文 参考訳(メタデータ) (2024-10-30T21:24:34Z) - Recurrent Interpolants for Probabilistic Time Series Prediction [10.422645245061899]
リカレントニューラルネットワークやトランスフォーマーのような逐次モデルは、確率的時系列予測の標準となっている。
近年の研究では、拡散モデルやフローベースモデルを用いて、時系列計算や予測に拡張した生成的アプローチについて検討している。
本研究は、補間剤と制御機能付き条件生成に基づく、リカレントニューラルネットワークの効率と拡散モデルの確率的モデリングを組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-18T03:52:48Z) - A short trajectory is all you need: A transformer-based model for long-time dissipative quantum dynamics [0.0]
深層人工知能ニューラルネットワークは、散逸環境に結合した量子システムの長時間の人口動態を予測することができることを示す。
我々のモデルは、リカレントニューラルネットワークのような古典的な予測モデルよりも正確です。
論文 参考訳(メタデータ) (2024-09-17T16:17:52Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Modeling the Nonsmoothness of Modern Neural Networks [35.93486244163653]
ピークの大きさの和(SMP)という特徴を用いて不滑らかさを定量化する。
この非平滑性機能は、ニューラルネットワークの回帰ベースのアプリケーションのためのフォレンジックツールとして利用される可能性があると考えます。
論文 参考訳(メタデータ) (2021-03-26T20:55:19Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。