論文の概要: Explainable Tensorized Neural Ordinary Differential Equations
forArbitrary-step Time Series Prediction
- arxiv url: http://arxiv.org/abs/2011.13174v1
- Date: Thu, 26 Nov 2020 08:29:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 12:07:40.227173
- Title: Explainable Tensorized Neural Ordinary Differential Equations
forArbitrary-step Time Series Prediction
- Title(参考訳): 説明可能なテンソル化ニューラル常微分方程式 forarbitrary-step 時系列予測
- Authors: Penglei Gao, Xi Yang, Rui Zhang, Kaizhu Huang
- Abstract要約: 本稿では,任意の時間点における時系列予測のための連続ニューラルネットワークアーキテクチャである Explainableized Neural Ordinary Differential Equations (ETN-ODE) を提案する。
5つの異なる多段階予測タスクと1つの任意のステップ予測タスクにおけるETN-ODEの有効性と解釈性について定量的に定量的に検証した。
- 参考スコア(独自算出の注目度): 23.31643200565306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a continuous neural network architecture, termed Explainable
Tensorized Neural Ordinary Differential Equations (ETN-ODE), for multi-step
time series prediction at arbitrary time points. Unlike the existing
approaches, which mainly handle univariate time series for multi-step
prediction or multivariate time series for single-step prediction, ETN-ODE
could model multivariate time series for arbitrary-step prediction. In
addition, it enjoys a tandem attention, w.r.t. temporal attention and variable
attention, being able to provide explainable insights into the data.
Specifically, ETN-ODE combines an explainable Tensorized Gated Recurrent Unit
(Tensorized GRU or TGRU) with Ordinary Differential Equations (ODE). The
derivative of the latent states is parameterized with a neural network. This
continuous-time ODE network enables a multi-step prediction at arbitrary time
points. We quantitatively and qualitatively demonstrate the effectiveness and
the interpretability of ETN-ODE on five different multi-step prediction tasks
and one arbitrary-step prediction task. Extensive experiments show that ETN-ODE
can lead to accurate predictions at arbitrary time points while attaining best
performance against the baseline methods in standard multi-step time series
prediction.
- Abstract(参考訳): 本稿では,任意の時間点における時系列予測のための連続ニューラルネットワークアーキテクチャである Explainable Tensorized Neural Ordinary Differential Equations (ETN-ODE) を提案する。
多段階予測や一段階予測の多変量時系列を主に扱う既存のアプローチとは異なり、ETN-ODEは任意のステップ予測の多変量時系列をモデル化できる。
さらに、時間的注意や変動的な注意といったタンデム的な注意を楽しみ、データに対する説明可能な洞察を提供することができる。
具体的には、ETN-ODEは、説明可能なテンソル化Gated Recurrent Unit(Tensorized GRUまたはTGRU)と通常の微分方程式(ODE)を組み合わせる。
潜在状態の微分はニューラルネットワークでパラメータ化される。
この連続時間ODEネットワークは、任意の時点における多段階予測を可能にする。
5つの異なる多段階予測タスクと1つの任意のステップ予測タスクにおけるETN-ODEの有効性と解釈性について定量的に定量的に検証した。
大規模な実験により、ETN-ODEは任意の時刻における正確な予測を導出し、標準のマルチステップ時系列予測においてベースライン法に対して最高の性能を得ることができた。
関連論文リスト
- Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - Neural Differential Recurrent Neural Network with Adaptive Time Steps [11.999568208578799]
隠れ状態の時間的発達を表すためにニューラルODEを用いるRNN-ODE-Adapと呼ばれるRNNベースのモデルを提案する。
我々は、データの変化の急激さに基づいて時間ステップを適応的に選択し、「スパイクのような」時系列に対してより効率的にモデルを訓練する。
論文 参考訳(メタデータ) (2023-06-02T16:46:47Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z) - Continuous Depth Recurrent Neural Differential Equations [0.0]
RNNモデルを一般化するための連続深さ再帰型ニューラル微分方程式(CDR-NDE)を提案する。
CDR-NDEはこれらの次元のそれぞれに2つの異なる微分方程式を考慮し、時間方向と深さ方向の進化をモデル化する。
また,隠蔽状態の計算を時間経過に伴う熱方程式の解法として扱う偏微分方程式に基づくCDR-NDE熱モデルを提案する。
論文 参考訳(メタデータ) (2022-12-28T06:34:32Z) - EgPDE-Net: Building Continuous Neural Networks for Time Series
Prediction with Exogenous Variables [22.145726318053526]
現在の連続法では、変数間の系列間相関と時間依存性はめったに考慮されない。
未知のPDEシステムを学習するための任意のステップ予測のための連続時間モデルを提案する。
論文 参考訳(メタデータ) (2022-08-03T08:34:31Z) - Multivariate Time Series Forecasting with Dynamic Graph Neural ODEs [65.18780403244178]
動的グラフニューラル正規微分方程式(MTGODE)を用いた多変量時系列予測連続モデルを提案する。
具体的には、まず、時間進化するノードの特徴と未知のグラフ構造を持つ動的グラフに多変量時系列を抽象化する。
そして、欠落したグラフトポロジを補完し、空間的および時間的メッセージパッシングを統一するために、ニューラルODEを設計、解決する。
論文 参考訳(メタデータ) (2022-02-17T02:17:31Z) - Synergetic Learning of Heterogeneous Temporal Sequences for
Multi-Horizon Probabilistic Forecasting [48.8617204809538]
本稿では,新しい条件生成モデルである変分相乗型マルチホライゾンネットワーク(VSMHN)を提案する。
不均一なシーケンス間で複雑な相関関係を学習するために、深部プロセスモデルと変動的リカレントニューラルネットワークの進歩を組み合わせるために、調整されたエンコーダが考案された。
我々のモデルは変動予測を用いて効果的に訓練でき、モンテカルロシミュレーションを用いて予測を生成することができる。
論文 参考訳(メタデータ) (2021-01-31T11:00:55Z) - Neural Jump Ordinary Differential Equations: Consistent Continuous-Time
Prediction and Filtering [6.445605125467574]
我々は、連続的に学習するデータ駆動型アプローチを提供するNeural Jump ODE(NJ-ODE)を紹介する。
我々のモデルは、$L2$-Optimalオンライン予測に収束することを示す。
我々は,より複雑な学習タスクにおいて,モデルがベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2020-06-08T16:34:51Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Time Dependence in Non-Autonomous Neural ODEs [74.78386661760662]
時変重みを持つニューラルODEの新しいファミリーを提案する。
我々は、速度と表現能力の両面で、従来のニューラルODEの変形よりも優れていた。
論文 参考訳(メタデータ) (2020-05-05T01:41:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。