論文の概要: STING: Self-attention based Time-series Imputation Networks using GAN
- arxiv url: http://arxiv.org/abs/2209.10801v1
- Date: Thu, 22 Sep 2022 06:06:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 12:50:36.904073
- Title: STING: Self-attention based Time-series Imputation Networks using GAN
- Title(参考訳): STING:GANを用いた自己注意型時系列インプットネットワーク
- Authors: Eunkyu Oh, Taehun Kim, Yunhu Ji, Sushil Khyalia
- Abstract要約: GANを用いたSING(Self-attention based Time-Series Imputation Networks)を提案する。
我々は、時系列の潜在表現を学習するために、生成的対向ネットワークと双方向リカレントニューラルネットワークを利用する。
3つの実世界のデータセットによる実験結果から、STINGは既存の最先端手法よりも計算精度が優れていることが示された。
- 参考スコア(独自算出の注目度): 4.052758394413726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series data are ubiquitous in real-world applications. However, one of
the most common problems is that the time series data could have missing values
by the inherent nature of the data collection process. So imputing missing
values from multivariate (correlated) time series data is imperative to improve
a prediction performance while making an accurate data-driven decision.
Conventional works for imputation simply delete missing values or fill them
based on mean/zero. Although recent works based on deep neural networks have
shown remarkable results, they still have a limitation to capture the complex
generation process of the multivariate time series. In this paper, we propose a
novel imputation method for multivariate time series data, called STING
(Self-attention based Time-series Imputation Networks using GAN). We take
advantage of generative adversarial networks and bidirectional recurrent neural
networks to learn latent representations of the time series. In addition, we
introduce a novel attention mechanism to capture the weighted correlations of
the whole sequence and avoid potential bias brought by unrelated ones.
Experimental results on three real-world datasets demonstrate that STING
outperforms the existing state-of-the-art methods in terms of imputation
accuracy as well as downstream tasks with the imputed values therein.
- Abstract(参考訳): 時系列データは現実世界のアプリケーションにおいてユビキタスである。
しかしながら、最も一般的な問題の1つは、時系列データがデータ収集プロセスの本質的な性質によって値が失われる可能性があることである。
したがって、多変量(相関)時系列データからの欠落値を暗示することは、正確なデータ駆動決定をしながら予測性能を向上させることが不可欠である。
従来の計算処理では、欠落した値を削除するか、平均/ゼロに基づいてそれを埋める。
近年のディープニューラルネットワークに基づく研究は顕著な成果を上げているが、多変量時系列の複雑な生成過程を捉えるには限界がある。
本稿では,SING(Self-attention based Time-Series Imputation Networks using GAN)と呼ばれる多変量時系列データに対する新しい計算手法を提案する。
時系列の潜在表現を学習するために,生成型逆ネットワークと双方向リカレントニューラルネットワークを活用する。
さらに,系列全体の重み付き相関を捉え,無関係な相関による潜在的なバイアスを回避するための新しい注意機構を提案する。
実世界の3つのデータセットによる実験結果から,SINGは既存の最先端手法よりも計算精度が優れており,その精度も向上していることがわかった。
関連論文リスト
- Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - Continuous-time Autoencoders for Regular and Irregular Time Series Imputation [21.25279298572273]
時系列計算は、時系列の最も基本的なタスクの1つである。
最近の自己注意に基づく手法は、最先端の計算性能を示している。
連続時間リカレントニューラルネットワークに基づく計算法の設計は,長年にわたって見過ごされてきた。
論文 参考訳(メタデータ) (2023-12-27T14:13:42Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Networked Time Series Prediction with Incomplete Data [59.45358694862176]
我々は、歴史と未来の両方で欠落した値を持つ不完全なデータでトレーニングできる新しいディープラーニングフレームワークであるNetS-ImpGANを提案する。
3つの実世界のデータセットに対して、異なるパターンと欠落率で広範な実験を行う。
論文 参考訳(メタデータ) (2021-10-05T18:20:42Z) - Multivariate Time Series Imputation by Graph Neural Networks [13.308026049048717]
我々は,多変量時系列の異なるチャネルにおける行方不明データを再構成することを目的としたGRILというグラフニューラルネットワークアーキテクチャを導入する。
予備的な結果は,本モデルが関連するベンチマーク上での計算処理において,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-31T17:47:10Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Time Series Data Imputation: A Survey on Deep Learning Approaches [4.4458738910060775]
時系列データ計算は、様々なカテゴリのメソッドでよく研究されている問題である。
ディープラーニングに基づく時系列手法は、RNNのようなモデルの使用によって進歩している。
我々は,それらのモデルアーキテクチャ,その長所,短所,短所,および時系列計算手法の開発を示す効果をレビューし,議論する。
論文 参考訳(メタデータ) (2020-11-23T11:57:27Z) - TadGAN: Time Series Anomaly Detection Using Generative Adversarial
Networks [73.01104041298031]
TadGANは、GAN(Generative Adversarial Networks)上に構築された教師なしの異常検出手法である。
時系列の時間相関を捉えるために,ジェネレータと批評家のベースモデルとしてLSTMリカレントニューラルネットワークを用いる。
提案手法の性能と一般化性を示すため,いくつかの異常スコアリング手法を検証し,最も適した手法を報告する。
論文 参考訳(メタデータ) (2020-09-16T15:52:04Z) - Neural ODEs for Informative Missingness in Multivariate Time Series [0.7233897166339269]
例えば、センサデータ、医療、天候といった実践的な応用は、真に連続したデータを生成する。
GRU-Dと呼ばれるディープラーニングモデルは、時系列データにおける情報不足に対処するための初期の試みである。
ニューラルネットワークの新しいファミリーであるNeural ODEsは、連続した時系列データを処理するのに自然で効率的である。
論文 参考訳(メタデータ) (2020-05-20T00:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。