論文の概要: Neural Jump Ordinary Differential Equations: Consistent Continuous-Time
Prediction and Filtering
- arxiv url: http://arxiv.org/abs/2006.04727v4
- Date: Fri, 16 Apr 2021 12:54:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 01:44:16.413348
- Title: Neural Jump Ordinary Differential Equations: Consistent Continuous-Time
Prediction and Filtering
- Title(参考訳): ニューラルジャンプ常微分方程式:連続時間予測とフィルタリング
- Authors: Calypso Herrera, Florian Krach, Josef Teichmann
- Abstract要約: 我々は、連続的に学習するデータ駆動型アプローチを提供するNeural Jump ODE(NJ-ODE)を紹介する。
我々のモデルは、$L2$-Optimalオンライン予測に収束することを示す。
我々は,より複雑な学習タスクにおいて,モデルがベースラインより優れていることを示す。
- 参考スコア(独自算出の注目度): 6.445605125467574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Combinations of neural ODEs with recurrent neural networks (RNN), like
GRU-ODE-Bayes or ODE-RNN are well suited to model irregularly observed time
series. While those models outperform existing discrete-time approaches, no
theoretical guarantees for their predictive capabilities are available.
Assuming that the irregularly-sampled time series data originates from a
continuous stochastic process, the $L^2$-optimal online prediction is the
conditional expectation given the currently available information. We introduce
the Neural Jump ODE (NJ-ODE) that provides a data-driven approach to learn,
continuously in time, the conditional expectation of a stochastic process. Our
approach models the conditional expectation between two observations with a
neural ODE and jumps whenever a new observation is made. We define a novel
training framework, which allows us to prove theoretical guarantees for the
first time. In particular, we show that the output of our model converges to
the $L^2$-optimal prediction. This can be interpreted as solution to a special
filtering problem. We provide experiments showing that the theoretical results
also hold empirically. Moreover, we experimentally show that our model
outperforms the baselines in more complex learning tasks and give comparisons
on real-world datasets.
- Abstract(参考訳): GRU-ODE-BayesやODE-RNNのようなリカレントニューラルネットワークとニューラルネットワークの組み合わせは、不規則に観測された時系列をモデル化するのに適している。
これらのモデルは既存の離散時間アプローチより優れているが、予測能力に関する理論的保証はない。
不規則にサンプリングされた時系列データが連続確率過程に由来すると仮定すると、$L^2$-Optimalオンライン予測は、現在利用可能な情報から条件付き期待値である。
確率過程の条件付き予測を連続的に学習するためのデータ駆動型アプローチを提供するニューラルジャンプODE(NJ-ODE)を導入する。
提案手法は,ニューラルオードを用いた2つの観測間の条件予測をモデル化し,新しい観測を行うたびにジャンプする。
理論的な保証を初めて証明できる新しいトレーニングフレームワークを定義します。
特に、我々のモデルの出力は、$L^2$-optimal predictionに収束することを示す。
これは特別なフィルタリング問題の解として解釈できる。
理論的結果も経験的に成り立つことを示す実験を行った。
さらに,本モデルがより複雑な学習課題のベースラインを上回り,実世界のデータセットとの比較を行う。
関連論文リスト
- Deep Limit Model-free Prediction in Regression [0.0]
本稿では,DNN(Deep Neural Network)に基づくモデルフリーアプローチにより,一般的な回帰条件下での点予測と予測間隔を実現する。
提案手法は,特に最適点予測において,他のDNN法に比べて安定かつ正確である。
論文 参考訳(メタデータ) (2024-08-18T16:37:53Z) - Learning Chaotic Systems and Long-Term Predictions with Neural Jump ODEs [4.204990010424083]
パス依存型ニューラルジャンプODE (PDNJ-ODE) は、不規則な(時間内に)および潜在的に不完全(座標に関して)な、一般的なプロセスのオンライン予測モデルである。
本研究では,2つの新しいアイデアによってモデルを強化し,互いに独立してモデル設定の性能を向上させる。
同じ拡張を使用して、PDNJ-ODEが標準モデルが失敗する一般的なデータセットの長期的な予測を確実に学習することができる。
論文 参考訳(メタデータ) (2024-07-26T15:18:29Z) - Foundational Inference Models for Dynamical Systems [5.549794481031468]
我々は,ODEによって決定されると仮定される時系列データの欠落を補うという古典的な問題に対して,新たな視点を提供する。
本稿では,いくつかの(隠れた)ODEを満たすパラメトリック関数を通じて,ゼロショット時系列計算のための新しい教師付き学習フレームワークを提案する。
我々は,1と同一(事前学習)の認識モデルが,63個の異なる時系列に対してゼロショット計算を行なえることを実証的に実証した。
論文 参考訳(メタデータ) (2024-02-12T11:48:54Z) - Generative Modeling of Regular and Irregular Time Series Data via Koopman VAEs [50.25683648762602]
モデルの新しい設計に基づく新しい生成フレームワークであるKoopman VAEを紹介する。
クープマン理論に触発され、線形写像を用いて潜在条件事前力学を表現する。
KoVAEは、いくつかの挑戦的な合成および実世界の時系列生成ベンチマークにおいて、最先端のGANおよびVAEメソッドより優れている。
論文 参考訳(メタデータ) (2023-10-04T07:14:43Z) - Neural Differential Recurrent Neural Network with Adaptive Time Steps [11.999568208578799]
隠れ状態の時間的発達を表すためにニューラルODEを用いるRNN-ODE-Adapと呼ばれるRNNベースのモデルを提案する。
我々は、データの変化の急激さに基づいて時間ステップを適応的に選択し、「スパイクのような」時系列に対してより効率的にモデルを訓練する。
論文 参考訳(メタデータ) (2023-06-02T16:46:47Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Artificial neural networks and time series of counts: A class of
nonlinear INGARCH models [0.0]
INGARCHモデルを人工知能ニューラルネットワーク(ANN)応答関数と組み合わせて非線形INGARCHモデルのクラスを得る方法を示す。
ANNフレームワークは、対応するニューラルモデルの退化バージョンとして、既存のINGARCHモデルの解釈を可能にする。
有界数と非有界数の時系列の実証分析により、ニューラルINGARCHモデルは、情報損失の観点から、合理的に退化した競合モデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-04-03T14:26:16Z) - On the balance between the training time and interpretability of neural
ODE for time series modelling [77.34726150561087]
本稿は,現代のニューラルODEを,時系列モデリングアプリケーションのためのより単純なモデルに還元することはできないことを示す。
ニューラルODEの複雑さは、従来の時系列モデリングツールと比較されるか、超える。
本稿では,ニューラルネットワークとODEシステムを用いた時系列モデリングの新しい視点を提案する。
論文 参考訳(メタデータ) (2022-06-07T13:49:40Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Generative Temporal Difference Learning for Infinite-Horizon Prediction [101.59882753763888]
我々は、無限確率的地平線を持つ環境力学の予測モデルである$gamma$-modelを導入する。
トレーニングタイムとテストタイムの複合的なエラーの間には、そのトレーニングが避けられないトレードオフを反映しているかについて議論する。
論文 参考訳(メタデータ) (2020-10-27T17:54:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。