論文の概要: Modeling Irregular Time Series with Continuous Recurrent Units
- arxiv url: http://arxiv.org/abs/2111.11344v1
- Date: Mon, 22 Nov 2021 16:49:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 18:15:50.036437
- Title: Modeling Irregular Time Series with Continuous Recurrent Units
- Title(参考訳): 連続時間単位による不規則時系列のモデル化
- Authors: Mona Schirmer, Mazin Eltayeb, Stefan Lessmann, Maja Rudolph
- Abstract要約: 観測時間間の不規則な時間間隔を処理するために,連続的再帰単位(CRU)を提案する。
我々はCRUがニューラル常微分方程式(neural ODE)に基づくモデルよりも不規則時系列を補間できることを示した。
また,本モデルでは,インエイジからダイナミックスを推測し,Kalmanの取得により,ノイズの多い観測結果から,有効な状態更新候補を効率よく抽出できることも示している。
- 参考スコア(独自算出の注目度): 3.7335080869292483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recurrent neural networks (RNNs) like long short-term memory networks (LSTMs)
and gated recurrent units (GRUs) are a popular choice for modeling sequential
data. Their gating mechanism permits weighting previous history encoded in a
hidden state with new information from incoming observations. In many
applications, such as medical records, observations times are irregular and
carry important information. However, LSTMs and GRUs assume constant time
intervals between observations. To address this challenge, we propose
continuous recurrent units (CRUs) -a neural architecture that can naturally
handle irregular time intervals between observations. The gating mechanism of
the CRU employs the continuous formulation of a Kalman filter and alternates
between (1) continuous latent state propagation according to a linear
stochastic differential equation (SDE) and (2) latent state updates whenever a
new observation comes in. In an empirical study, we show that the CRU can
better interpolate irregular time series than neural ordinary differential
equation (neural ODE)-based models. We also show that our model can infer
dynamics from im-ages and that the Kalman gain efficiently singles out
candidates for valuable state updates from noisy observations.
- Abstract(参考訳): 長い短期記憶ネットワーク(LSTM)やゲートリカレントユニット(GRU)のようなリカレントニューラルネットワーク(RNN)は、シーケンシャルデータをモデリングするための一般的な選択肢である。
ゲーティング機構により、隠れた状態でエンコードされた過去の履歴を、受信した観測から新しい情報で重み付けすることができる。
医療記録などの多くの応用において、観測時間は不規則であり、重要な情報を持っている。
しかし、LSTMとGRUは観測時間間隔を一定に設定する。
この課題に対処するために、観測間の不規則な時間間隔を自然に処理できるニューラルネットワークである連続リカレントユニット(CRU)を提案する。
CRUのゲーティング機構はカルマンフィルタの連続的な定式化を採用し、(1)線形確率微分方程式(SDE)による連続潜時状態の伝播と(2)新しい観測が入るたびに潜時状態の更新を交互に行う。
実験的研究により、CRUはニューラル常微分方程式(ニューラルODE)に基づくモデルよりも不規則時系列を補間できることを示した。
また,我々のモデルがim-agesからダイナミクスを推定できることを示すとともに,kalmanが有意な状態更新候補をノイズ観測から効率的に排除できることを示した。
関連論文リスト
- Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Neural Continuous-Discrete State Space Models for Irregularly-Sampled
Time Series [18.885471782270375]
NCDSSMは補助変数を用いて力学からの認識をアンタングルし、補助変数のみに償却推論を必要とする。
本稿では、潜在力学の3つのフレキシブルパラメータ化と、推論中の動的状態の辺りを生かした効率的な学習目標を提案する。
複数のベンチマークデータセットの実証結果は、既存のモデルよりもNCDSSMの計算性能と予測性能が改善されたことを示している。
論文 参考訳(メタデータ) (2023-01-26T18:45:04Z) - Continuous Depth Recurrent Neural Differential Equations [0.0]
RNNモデルを一般化するための連続深さ再帰型ニューラル微分方程式(CDR-NDE)を提案する。
CDR-NDEはこれらの次元のそれぞれに2つの異なる微分方程式を考慮し、時間方向と深さ方向の進化をモデル化する。
また,隠蔽状態の計算を時間経過に伴う熱方程式の解法として扱う偏微分方程式に基づくCDR-NDE熱モデルを提案する。
論文 参考訳(メタデータ) (2022-12-28T06:34:32Z) - Gated Recurrent Neural Networks with Weighted Time-Delay Feedback [59.125047512495456]
重み付き時間遅延フィードバック機構を備えた新しいゲートリカレントユニット(GRU)を導入する。
我々は、$tau$-GRUが、最先端のリカレントユニットやゲート型リカレントアーキテクチャよりも早く収束し、より一般化できることを示します。
論文 参考訳(メタデータ) (2022-12-01T02:26:34Z) - Autoregressive GNN-ODE GRU Model for Network Dynamics [7.272158647379444]
本稿では,AGOG(Autoregressive GNN-ODE GRU Model)を提案する。
我々のモデルは複雑なシステムの連続的動的過程を正確に捉え、最小限の誤差でノード状態の予測を行うことができる。
論文 参考訳(メタデータ) (2022-11-19T05:43:10Z) - Consistency of mechanistic causal discovery in continuous-time using
Neural ODEs [85.7910042199734]
ダイナミカルシステムの研究において,連続時間における因果的発見を検討する。
本稿では,ニューラルネットワークを用いた因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-06T08:48:02Z) - CARRNN: A Continuous Autoregressive Recurrent Neural Network for Deep
Representation Learning from Sporadic Temporal Data [1.8352113484137622]
本稿では,散発データにおける複数の時間的特徴をモデル化するための新しい深層学習モデルを提案する。
提案モデルはCARRNNと呼ばれ、時間ラグによって変調されたニューラルネットワークを用いてエンドツーエンドにトレーニング可能な一般化された離散時間自己回帰モデルを使用する。
アルツハイマー病進行モデルおよび集中治療単位(ICU)死亡率予測のためのデータを用いて,多変量時系列回帰タスクに適用した。
論文 参考訳(メタデータ) (2021-04-08T12:43:44Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Crop Classification under Varying Cloud Cover with Neural Ordinary
Differential Equations [23.93148719731374]
作物分類の最先端の手法は、観測間の時間間隔を暗黙的に仮定する手法に依存している。
本稿では,ニューラル常微分方程式 (NODE) とリカレントニューラルネットワーク (RNN) を組み合わせることで,不規則に空間化された画像列における作物の種類を分類することを提案する。
論文 参考訳(メタデータ) (2020-12-04T11:56:50Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。