論文の概要: Learning from Irregularly-Sampled Time Series: A Missing Data
Perspective
- arxiv url: http://arxiv.org/abs/2008.07599v1
- Date: Mon, 17 Aug 2020 20:01:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 03:07:52.597461
- Title: Learning from Irregularly-Sampled Time Series: A Missing Data
Perspective
- Title(参考訳): 不規則なサンプル時系列から学ぶ:データの欠如
- Authors: Steven Cheng-Xian Li, Benjamin M. Marlin
- Abstract要約: 不規則にサンプリングされた時系列は、医療を含む多くの領域で発生する。
連続だが観測されていない関数からサンプリングされた指数値対の列として、不規則にサンプリングされた時系列データをモデル化する。
本稿では,変分オートエンコーダと生成対向ネットワークに基づく学習手法を提案する。
- 参考スコア(独自算出の注目度): 18.493394650508044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Irregularly-sampled time series occur in many domains including healthcare.
They can be challenging to model because they do not naturally yield a
fixed-dimensional representation as required by many standard machine learning
models. In this paper, we consider irregular sampling from the perspective of
missing data. We model observed irregularly-sampled time series data as a
sequence of index-value pairs sampled from a continuous but unobserved
function. We introduce an encoder-decoder framework for learning from such
generic indexed sequences. We propose learning methods for this framework based
on variational autoencoders and generative adversarial networks. For continuous
irregularly-sampled time series, we introduce continuous convolutional layers
that can efficiently interface with existing neural network architectures.
Experiments show that our models are able to achieve competitive or better
classification results on irregularly-sampled multivariate time series compared
to recent RNN models while offering significantly faster training times.
- Abstract(参考訳): 不規則にサンプリングされた時系列は、医療を含む多くの領域で発生する。
多くの標準的な機械学習モデルで要求される固定次元表現を自然に生成しないため、モデリングは困難である。
本稿では,欠落データの観点から不規則なサンプリングについて考察する。
不規則にサンプリングされた時系列データを連続だが観測されていない関数からサンプリングされたインデックス値ペアの列としてモデル化した。
このような汎用インデックスシーケンスから学習するためのエンコーダ・デコーダフレームワークを提案する。
本稿では,変分オートエンコーダと生成対向ネットワークに基づく学習手法を提案する。
不規則にサンプリングされた連続時系列の場合、既存のニューラルネットワークアーキテクチャと効率的にインターフェースできる連続畳み込み層を導入する。
実験の結果,最近のrnnモデルと比較して,不規則にサンプリングされた多変量時系列の分類結果の精度が向上し,トレーニング時間が大幅に向上した。
関連論文リスト
- Moirai-MoE: Empowering Time Series Foundation Models with Sparse Mixture of Experts [103.725112190618]
本稿では,単一入出力プロジェクション層を用いたMoirai-MoEを紹介するとともに,多種多様な時系列パターンのモデリングを専門家の疎結合に委ねる。
39のデータセットに対する大規模な実験は、既存の基盤モデルよりも、分配シナリオとゼロショットシナリオの両方において、Moirai-MoEの優位性を実証している。
論文 参考訳(メタデータ) (2024-10-14T13:01:11Z) - Time Series Data Augmentation as an Imbalanced Learning Problem [2.5536554335016417]
我々は、オーバーサンプリング戦略を用いて、合成時系列観測を作成し、予測モデルの精度を向上させる。
5502個の単変量時系列を含む7種類のデータベースを用いて実験を行った。
提案手法は,グローバルモデルとローカルモデルの両方で優れており,この2つのアプローチのトレードオフが良好であることがわかった。
論文 参考訳(メタデータ) (2024-04-29T09:27:15Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - Generative Modeling of Regular and Irregular Time Series Data via Koopman VAEs [50.25683648762602]
モデルの新しい設計に基づく新しい生成フレームワークであるKoopman VAEを紹介する。
クープマン理論に触発され、線形写像を用いて潜在条件事前力学を表現する。
KoVAEは、いくつかの挑戦的な合成および実世界の時系列生成ベンチマークにおいて、最先端のGANおよびVAEメソッドより優れている。
論文 参考訳(メタデータ) (2023-10-04T07:14:43Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Deep Time Series Models for Scarce Data [8.673181404172963]
時系列データは多くの領域で爆発的な速度で成長し、時系列モデリング研究の急増を刺激している。
データ希少性は、膨大なデータ分析の問題で発生する普遍的な問題です。
論文 参考訳(メタデータ) (2021-03-16T22:16:54Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Adjusting for Autocorrelated Errors in Neural Networks for Time Series
Regression and Forecasting [10.659189276058948]
我々は,自己相関係数をモデルパラメータと組み合わせて学習し,自己相関誤差の補正を行う。
時系列回帰では,大規模な実験により,本手法がPrais-Winsten法より優れていることが示された。
実世界の幅広いデータセットを対象とした結果から,ほぼすべてのケースにおいて,本手法が性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T04:25:51Z) - Multi-Time Attention Networks for Irregularly Sampled Time Series [18.224344440110862]
不規則サンプリングは多くの時系列モデリングアプリケーションで発生する。
我々は,この設定のための新しいディープラーニングフレームワークを提案し,これをマルチ時間注意ネットワークと呼ぶ。
その結果,我々のアプローチは,ベースラインや最近提案されたモデルと同等かそれ以上の性能を示すことができた。
論文 参考訳(メタデータ) (2021-01-25T18:57:42Z) - Improving Irregularly Sampled Time Series Learning with Dense
Descriptors of Time [0.0]
不規則にサンプリングされた時系列による教師付き学習は、機械学習手法の課題である。
本研究では,時間埋め込み(Time Embeddings)と呼ばれる正弦波関数を用いて,タイムスタンプを高密度ベクトルとして表現する手法を提案する。
論文 参考訳(メタデータ) (2020-03-20T14:21:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。