論文の概要: Heteroscedastic Temporal Variational Autoencoder For Irregular Time Series
- arxiv url: http://arxiv.org/abs/2107.11350v2
- Date: Tue, 05 Nov 2024 23:22:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-09 00:49:12.479132
- Title: Heteroscedastic Temporal Variational Autoencoder For Irregular Time Series
- Title(参考訳): 不規則時系列のための非定常時間変分オートエンコーダ
- Authors: Satya Narayan Shukla, Benjamin M. Marlin,
- Abstract要約: HeTVAE(Heteroscedastic Temporal Variational Autoencoder)と呼ばれる不規則サンプル時系列のための新しいディープラーニングフレームワークを提案する。
HeTVAEは、入力観察間隔に関する情報を符号化する新しい入力層と、入力間隔による不確かさを伝播する時間的VAEアーキテクチャと、変数による出力の不確実性を可能にするヘテロセダスティック出力層とを含む。
提案したアーキテクチャは,近年提案された潜時変動モデルと同様に,時間スパースおよび不規則サンプリングによる変動不確かさを,ベースラインや従来のモデルよりもよく反映できることを示す。
- 参考スコア(独自算出の注目度): 15.380441563675243
- License:
- Abstract: Irregularly sampled time series commonly occur in several domains where they present a significant challenge to standard deep learning models. In this paper, we propose a new deep learning framework for probabilistic interpolation of irregularly sampled time series that we call the Heteroscedastic Temporal Variational Autoencoder (HeTVAE). HeTVAE includes a novel input layer to encode information about input observation sparsity, a temporal VAE architecture to propagate uncertainty due to input sparsity, and a heteroscedastic output layer to enable variable uncertainty in output interpolations. Our results show that the proposed architecture is better able to reflect variable uncertainty through time due to sparse and irregular sampling than a range of baseline and traditional models, as well as recently proposed deep latent variable models that use homoscedastic output layers.
- Abstract(参考訳): 不規則にサンプリングされた時系列は、標準的なディープラーニングモデルに重要な課題をもたらすいくつかの領域で一般的に発生する。
本稿では,不規則なサンプル時系列の確率的補間のための新しいディープラーニングフレームワークを提案し,これをヘテロセダスティック時変自動符号化器 (HeTVAE) と呼ぶ。
HeTVAEは、入力観察間隔に関する情報を符号化する新しい入力層と、入力間隔による不確実性を伝播する時間的VAEアーキテクチャと、出力補間における可変不確実性を可能にするヘテロセダスティック出力層とを含む。
提案したアーキテクチャは, ベースラインモデルや従来のモデルよりもスパースサンプリングや不規則サンプリングにより, 時間的変動の不確かさを反映しやすく, また最近, ホモスセダスティックな出力層を用いた潜時変動モデルも提案されている。
関連論文リスト
- TimeDiT: General-purpose Diffusion Transformers for Time Series Foundation Model [11.281386703572842]
時間的自己回帰生成型トランスフォーマーアーキテクチャを利用するモデル群が開発されている。
TimeDiTは時系列の一般的な基礎モデルであり、時間的自己回帰生成の代わりにデノナイジング拡散パラダイムを用いる。
TimeDiTの有効性を実証するために,予測,計算,異常検出などのタスクの多種多様な実験を行った。
論文 参考訳(メタデータ) (2024-09-03T22:31:57Z) - PDETime: Rethinking Long-Term Multivariate Time Series Forecasting from
the perspective of partial differential equations [49.80959046861793]
本稿では,ニューラルPDEソルバの原理に着想を得た新しいLMTFモデルであるPDETimeを提案する。
7つの異なる時間的実世界のLMTFデータセットを用いた実験により、PDETimeがデータ固有の性質に効果的に適応できることが判明した。
論文 参考訳(メタデータ) (2024-02-25T17:39:44Z) - Explaining Time Series via Contrastive and Locally Sparse Perturbations [45.055327583283315]
ContraLSPは、非形式的摂動を構築するために反事実サンプルを導入するスパースモデルである。
合成と実世界の両方のデータセットに関する実証研究は、ContraLSPが最先端のモデルより優れていることを示している。
論文 参考訳(メタデータ) (2024-01-16T18:27:37Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - Compatible Transformer for Irregularly Sampled Multivariate Time Series [75.79309862085303]
本研究では,各サンプルに対して総合的な時間的相互作用特徴学習を実現するためのトランスフォーマーベースのエンコーダを提案する。
実世界の3つのデータセットについて広範な実験を行い、提案したCoFormerが既存の手法を大幅に上回っていることを検証した。
論文 参考訳(メタデータ) (2023-10-17T06:29:09Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Robust Audio Anomaly Detection [10.75127981612396]
提案されたアプローチは、トレーニングデータセットにラベル付き異常が存在することを前提としません。
時間力学は、注意機構を付加した繰り返し層を用いてモデル化される。
ネットワークの出力は、外向きの頑健な確率密度関数である。
論文 参考訳(メタデータ) (2022-02-03T17:19:42Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Temporal Latent Auto-Encoder: A Method for Probabilistic Multivariate
Time Series Forecasting [4.131842516813833]
時間系列の非線形ファクタリゼーションを可能にする新しい時間的潜時オートエンコーダ法を提案する。
確率的潜時空間モデルにより、入力系列の複雑な分布はデコーダを介してモデル化される。
我々のモデルは、多くの一般的な多変量データセット上で最先端のパフォーマンスを達成し、いくつかの標準メトリクスに対して最大50%のゲインを得られることがある。
論文 参考訳(メタデータ) (2021-01-25T22:29:40Z) - Learning from Irregularly-Sampled Time Series: A Missing Data
Perspective [18.493394650508044]
不規則にサンプリングされた時系列は、医療を含む多くの領域で発生する。
連続だが観測されていない関数からサンプリングされた指数値対の列として、不規則にサンプリングされた時系列データをモデル化する。
本稿では,変分オートエンコーダと生成対向ネットワークに基づく学習手法を提案する。
論文 参考訳(メタデータ) (2020-08-17T20:01:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。