論文の概要: Neural Chronos ODE: Unveiling Temporal Patterns and Forecasting Future
and Past Trends in Time Series Data
- arxiv url: http://arxiv.org/abs/2307.01023v1
- Date: Mon, 3 Jul 2023 13:54:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 12:48:29.633923
- Title: Neural Chronos ODE: Unveiling Temporal Patterns and Forecasting Future
and Past Trends in Time Series Data
- Title(参考訳): ニューラルクロノスODE:時系列データにおける時間パターンの展開と予測と過去の動向
- Authors: C.Coelho, M. Fernanda P. Costa and L.L. Ferr\'as
- Abstract要約: 実験結果から,ニューラルCODEはスパイラルのダイナミクスを前後に学習する際に,ニューラルODEよりも優れていた。
CODE-RNN/-GRU/-LSTMとCODE-BiRNN/-BiGRU/-BiLSTMの比較を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces Neural Chronos Ordinary Differential Equations (Neural
CODE), a deep neural network architecture that fits a continuous-time ODE
dynamics for predicting the chronology of a system both forward and backward in
time. To train the model, we solve the ODE as an initial value problem and a
final value problem, similar to Neural ODEs. We also explore two approaches to
combining Neural CODE with Recurrent Neural Networks by replacing Neural ODE
with Neural CODE (CODE-RNN), and incorporating a bidirectional RNN for full
information flow in both time directions (CODE-BiRNN), and variants with other
update cells namely GRU and LSTM: CODE-GRU, CODE-BiGRU, CODE-LSTM, CODE-BiLSTM.
Experimental results demonstrate that Neural CODE outperforms Neural ODE in
learning the dynamics of a spiral forward and backward in time, even with
sparser data. We also compare the performance of CODE-RNN/-GRU/-LSTM and
CODE-BiRNN/-BiGRU/-BiLSTM against ODE-RNN/-GRU/-LSTM on three real-life time
series data tasks: imputation of missing data for lower and higher dimensional
data, and forward and backward extrapolation with shorter and longer time
horizons. Our findings show that the proposed architectures converge faster,
with CODE-BiRNN/-BiGRU/-BiLSTM consistently outperforming the other
architectures on all tasks.
- Abstract(参考訳): 本研究は,連続時間odeダイナミクスに適合するディープニューラルネットワークアーキテクチャであるneural chronos normal differential equation (neural code)を導入する。
モデルのトレーニングでは,ニューラルODEと同様,初期値問題と最終値問題としてODEを解く。
また、ニューラルコードとリカレントニューラルネットワークを組み合わせるための2つのアプローチとして、ニューラルコードとニューラルコード(CODE-RNN)を置換し、双方向のRNNを両時間方向のフル情報フロー(CODE-BiRNN)に組み込む方法と、他の更新セルであるGRUとLSTM(CODE-GRU、CODE-BiGRU、CODE-LSTM、CODE-BiLSTM)とのバリエーションを検討する。
実験結果から,ニューラルCODEはスペーサーデータであっても,スパイラルの前後のダイナミクスを学習する際に,ニューラルODEより優れていることが示された。
また,CODE-RNN/-GRU/-LSTMとCODE-BiRNN/-BiGRU/-BiLSTMの3つの実時間時系列データに対する性能の比較を行った。
提案したアーキテクチャは,CODE-BiRNN/-BiGRU/-BiLSTMによりより高速に収束し,全てのタスクにおいて他のアーキテクチャよりも優れていた。
関連論文リスト
- Enhancing Continuous Time Series Modelling with a Latent ODE-LSTM
Approach [0.0]
連続時系列(CTS)は多くのアプリケーションで見られる。
標準リカレントニューラルネットワーク(RNN)を用いた不規則サンプリングレートのCTSのモデル化は困難である
論文 参考訳(メタデータ) (2023-07-11T09:01:49Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Neural Differential Recurrent Neural Network with Adaptive Time Steps [11.999568208578799]
隠れ状態の時間的発達を表すためにニューラルODEを用いるRNN-ODE-Adapと呼ばれるRNNベースのモデルを提案する。
我々は、データの変化の急激さに基づいて時間ステップを適応的に選択し、「スパイクのような」時系列に対してより効率的にモデルを訓練する。
論文 参考訳(メタデータ) (2023-06-02T16:46:47Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Neural Generalized Ordinary Differential Equations with Layer-varying
Parameters [1.3691539554014036]
層状ニューラルGODEは標準ニューラルGODEよりも柔軟で汎用的であることを示す。
Neural-GODEは、予測精度でResNetsと互換性を持って実行しながら、計算とメモリの利点を享受する。
論文 参考訳(メタデータ) (2022-09-21T20:02:28Z) - On the balance between the training time and interpretability of neural
ODE for time series modelling [77.34726150561087]
本稿は,現代のニューラルODEを,時系列モデリングアプリケーションのためのより単純なモデルに還元することはできないことを示す。
ニューラルODEの複雑さは、従来の時系列モデリングツールと比較されるか、超える。
本稿では,ニューラルネットワークとODEシステムを用いた時系列モデリングの新しい視点を提案する。
論文 参考訳(メタデータ) (2022-06-07T13:49:40Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - CARRNN: A Continuous Autoregressive Recurrent Neural Network for Deep
Representation Learning from Sporadic Temporal Data [1.8352113484137622]
本稿では,散発データにおける複数の時間的特徴をモデル化するための新しい深層学習モデルを提案する。
提案モデルはCARRNNと呼ばれ、時間ラグによって変調されたニューラルネットワークを用いてエンドツーエンドにトレーニング可能な一般化された離散時間自己回帰モデルを使用する。
アルツハイマー病進行モデルおよび集中治療単位(ICU)死亡率予測のためのデータを用いて,多変量時系列回帰タスクに適用した。
論文 参考訳(メタデータ) (2021-04-08T12:43:44Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Neural Ordinary Differential Equation based Recurrent Neural Network
Model [0.7233897166339269]
微分方程式は ニューラルネットワークの 新たなメンバーだ
本稿では, 通常の微分方程式(ODE)の強度を新しい拡張法で探索する。
2つの新しいODEベースのRNNモデル(GRU-ODEモデルとLSTM-ODE)は、ODEソルバを用いて任意の時点で隠れた状態とセル状態を計算することができる。
実験により、これらの新しいODEベースのRNNモデルは、遅延ODEや従来のニューラルODEよりもトレーニング時間が少ないことが示された。
論文 参考訳(メタデータ) (2020-05-20T01:02:29Z) - Time Dependence in Non-Autonomous Neural ODEs [74.78386661760662]
時変重みを持つニューラルODEの新しいファミリーを提案する。
我々は、速度と表現能力の両面で、従来のニューラルODEの変形よりも優れていた。
論文 参考訳(メタデータ) (2020-05-05T01:41:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。