論文の概要: Recurrent Interpolants for Probabilistic Time Series Prediction
- arxiv url: http://arxiv.org/abs/2409.11684v1
- Date: Wed, 18 Sep 2024 03:52:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 19:10:09.503060
- Title: Recurrent Interpolants for Probabilistic Time Series Prediction
- Title(参考訳): 確率的時系列予測のためのリカレント補間器
- Authors: Yu Chen, Marin Biloš, Sarthak Mittal, Wei Deng, Kashif Rasul, Anderson Schneider,
- Abstract要約: 本稿では,リカレントニューラルネットワークの計算効率と拡散モデルの高品質確率モデルとの融合による新しい手法を提案する。
本手法は、補間剤の基礎と、追加の制御機能を備えたより広範な条件生成フレームワークへの拡張に依存している。
- 参考スコア(独自算出の注目度): 10.422645245061899
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sequential models such as recurrent neural networks or transformer-based models became \textit{de facto} tools for multivariate time series forecasting in a probabilistic fashion, with applications to a wide range of datasets, such as finance, biology, medicine, etc. Despite their adeptness in capturing dependencies, assessing prediction uncertainty, and efficiency in training, challenges emerge in modeling high-dimensional complex distributions and cross-feature dependencies. To tackle these issues, recent works delve into generative modeling by employing diffusion or flow-based models. Notably, the integration of stochastic differential equations or probability flow successfully extends these methods to probabilistic time series imputation and forecasting. However, scalability issues necessitate a computational-friendly framework for large-scale generative model-based predictions. This work proposes a novel approach by blending the computational efficiency of recurrent neural networks with the high-quality probabilistic modeling of the diffusion model, which addresses challenges and advances generative models' application in time series forecasting. Our method relies on the foundation of stochastic interpolants and the extension to a broader conditional generation framework with additional control features, offering insights for future developments in this dynamic field.
- Abstract(参考訳): リカレントニューラルネットワークやトランスフォーマーベースモデルといったシークエンシャルモデルは、確率的手法で多変量時系列を予測するための「textit{de facto}」ツールとなり、金融、生物学、医学などの幅広いデータセットに適用された。
依存関係をキャプチャし、予測の不確実性を評価し、トレーニングの効率を評価できるにもかかわらず、高次元の複雑な分布と機能横断的な依存関係をモデル化する際の課題が浮かび上がっている。
これらの問題に対処するため、最近の研究は拡散モデルやフローベースモデルを用いて生成モデリングを探求している。
特に、確率微分方程式や確率フローの統合は、これらの手法を確率的時系列計算と予測に拡張することに成功している。
しかし、スケーラビリティの問題は、大規模生成モデルに基づく予測のための計算に優しいフレームワークを必要とする。
本研究は,繰り返しニューラルネットワークの計算効率と拡散モデルの高品質確率モデルとの融合による新しい手法を提案する。
提案手法は, 確率補間剤の基礎と, さらなる制御機能を備えたより広範な条件生成フレームワークへの拡張に依存し, このダイナミックな分野における今後の発展への洞察を提供する。
関連論文リスト
- ProGen: Revisiting Probabilistic Spatial-Temporal Time Series Forecasting from a Continuous Generative Perspective Using Stochastic Differential Equations [18.64802090861607]
ProGen Proは、不確実性を管理しながら依存関係を効果的にキャプチャする堅牢なソリューションを提供する。
4つのベンチマークトラフィックデータセットの実験により、ProGen Proは最先端の決定論的確率モデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-11-02T14:37:30Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Probabilistic Time Series Forecasting with Implicit Quantile Networks [0.7249731529275341]
自己回帰的リカレントニューラルネットワークとインプリシット量子ネットワークを併用して、時系列ターゲット上の大規模な分布を学習する。
提案手法は, 時間分布の推定だけでなく, ポイントワイズ予測精度の観点からも好適である。
論文 参考訳(メタデータ) (2021-07-08T10:37:24Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Flow-based Spatio-Temporal Structured Prediction of Motion Dynamics [21.24885597341643]
条件付き流れ (CNF) は、高次元と相互相関を持つ複雑な分布を表現できるフレキシブルな生成モデルである。
本研究では,時間的入力特徴の出力を自己回帰的に正規化する新しい手法としてMotionFlowを提案する。
本稿では,予測,動き予測時系列予測,二分節分割などのタスクに本手法を適用した。
論文 参考訳(メタデータ) (2021-04-09T14:30:35Z) - Dynamic Gaussian Mixture based Deep Generative Model For Robust
Forecasting on Sparse Multivariate Time Series [43.86737761236125]
本研究では,孤立した特徴表現ではなく,潜在クラスタの遷移を追跡する新しい生成モデルを提案する。
新たに設計された動的ガウス混合分布が特徴であり、クラスタリング構造のダイナミクスを捉えている。
帰納的解析を可能にするために構造化推論ネットワークも設計されている。
論文 参考訳(メタデータ) (2021-03-03T04:10:07Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Synergetic Learning of Heterogeneous Temporal Sequences for
Multi-Horizon Probabilistic Forecasting [48.8617204809538]
本稿では,新しい条件生成モデルである変分相乗型マルチホライゾンネットワーク(VSMHN)を提案する。
不均一なシーケンス間で複雑な相関関係を学習するために、深部プロセスモデルと変動的リカレントニューラルネットワークの進歩を組み合わせるために、調整されたエンコーダが考案された。
我々のモデルは変動予測を用いて効果的に訓練でき、モンテカルロシミュレーションを用いて予測を生成することができる。
論文 参考訳(メタデータ) (2021-01-31T11:00:55Z) - Learning Interpretable Deep State Space Model for Probabilistic Time
Series Forecasting [98.57851612518758]
確率的時系列予測は、その歴史に基づいて将来の分布を推定する。
本稿では,非線形エミッションモデルと遷移モデルとをネットワークによってパラメータ化した,確率的時系列予測のための深部状態空間モデルを提案する。
実験では,我々のモデルが正確かつ鋭い確率予測を生成することを示す。
論文 参考訳(メタデータ) (2021-01-31T06:49:33Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。