論文の概要: Vector Quantized Time Series Generation with a Bidirectional Prior Model
- arxiv url: http://arxiv.org/abs/2303.04743v1
- Date: Wed, 8 Mar 2023 17:27:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 13:00:51.029670
- Title: Vector Quantized Time Series Generation with a Bidirectional Prior Model
- Title(参考訳): 双方向事前モデルを用いたベクトル量子化時系列生成
- Authors: Daesoo Lee, Sara Malacarne and Erlend Aune
- Abstract要約: 時系列生成(TSG)の研究は、主にGAN(Generative Adversarial Networks)とリカレントニューラルネットワーク(RNN)の亜種の使用に焦点を当てている。
本稿では,ベクトル量子化(VQ)技術を用いてTSG問題に対処するTimeVQVAEを提案する。
また、低周波(LF)と高周波(HF)に分かれた時間周波数領域におけるVQモデリングを提案する。
- 参考スコア(独自算出の注目度): 0.3867363075280544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series generation (TSG) studies have mainly focused on the use of
Generative Adversarial Networks (GANs) combined with recurrent neural network
(RNN) variants. However, the fundamental limitations and challenges of training
GANs still remain. In addition, the RNN-family typically has difficulties with
temporal consistency between distant timesteps. Motivated by the successes in
the image generation (IMG) domain, we propose TimeVQVAE, the first work, to our
knowledge, that uses vector quantization (VQ) techniques to address the TSG
problem. Moreover, the priors of the discrete latent spaces are learned with
bidirectional transformer models that can better capture global temporal
consistency. We also propose VQ modeling in a time-frequency domain, separated
into low-frequency (LF) and high-frequency (HF). This allows us to retain
important characteristics of the time series and, in turn, generate new
synthetic signals that are of better quality, with sharper changes in
modularity, than its competing TSG methods. Our experimental evaluation is
conducted on all datasets from the UCR archive, using well-established metrics
in the IMG literature, such as Fr\'echet inception distance and inception
scores. Our implementation on GitHub:
\url{https://github.com/ML4ITS/TimeVQVAE}.
- Abstract(参考訳): 時系列生成(TSG)の研究は、主にGAN(Generative Adversarial Networks)とRNN(Recurrent Neural Network)の亜種の使用に焦点を当てている。
しかし、GANの訓練の基本的な限界と課題は依然として残っている。
加えて、RNNファミリーは通常、遠方の時間ステップ間の時間的一貫性が困難である。
画像生成(img)領域の成功に動機づけられ、tsg問題に対処するためにベクトル量子化(vq)技術を用いて、我々の知識に対して最初の仕事であるtimevqvaeを提案する。
さらに、離散潜在空間の事前は、大域的時間的一貫性をよりよく捉えるための双方向トランスフォーマーモデルで学習される。
また、低周波(LF)と高周波(HF)に分かれた時間周波数領域におけるVQモデリングを提案する。
これにより、時系列の重要な特性を保ち、代わりに、競合するTSG法よりも、モジュール性の急激な変化を伴う、より良い品質の合成信号を生成することができる。
IMG文献におけるFr'echetインセプション距離やインセプションスコアなどの指標を用いて,UCRアーカイブの全データセットについて実験を行った。
GitHub上の実装: \url{https://github.com/ML4ITS/TimeVQVAE}。
関連論文リスト
- Multivariate Time-Series Anomaly Detection based on Enhancing Graph Attention Networks with Topological Analysis [31.43159668073136]
時系列における教師なし異常検出は、手動による介入の必要性を大幅に低減するため、産業応用において不可欠である。
従来の手法では、グラフニューラルネットワーク(GNN)やトランスフォーマーを使用して空間を解析し、RNNは時間的依存をモデル化していた。
本稿では,TopoGDNと呼ばれる多変量時系列異常検出のための拡張グラフ注意ネットワーク(GAT)上に構築された新しい時間モデルを提案する。
論文 参考訳(メタデータ) (2024-08-23T14:06:30Z) - Signal-SGN: A Spiking Graph Convolutional Network for Skeletal Action Recognition via Learning Temporal-Frequency Dynamics [2.9578022754506605]
骨格に基づく行動認識では、グラフ畳み込みネットワーク(GCN)はその複雑さと高エネルギー消費のために制限に直面している。
本稿では、骨格配列の時間次元をスパイキング時間ステップとして活用するSignal-SGN(Spiking Graph Convolutional Network)を提案する。
実験により,提案モデルが既存のSNN法を精度で上回るだけでなく,学習時の計算記憶コストも低減できることがわかった。
論文 参考訳(メタデータ) (2024-08-03T07:47:16Z) - Correlation-aware Spatial-Temporal Graph Learning for Multivariate
Time-series Anomaly Detection [67.60791405198063]
時系列異常検出のための相関対応時空間グラフ学習(CST-GL)を提案する。
CST-GLは、多変量時系列相関学習モジュールを介してペアの相関を明示的にキャプチャする。
新規な異常スコアリング成分をCST-GLにさらに統合し、純粋に教師なしの方法で異常の度合いを推定する。
論文 参考訳(メタデータ) (2023-07-17T11:04:27Z) - Diagnostic Spatio-temporal Transformer with Faithful Encoding [54.02712048973161]
本稿では,データ生成プロセスが複合時間(ST)依存性を持つ場合の異常診断の課題について述べる。
我々は、ST依存を時系列分類の副産物として学習する、教師付き依存発見として問題を定式化する。
既存のST変圧器で使用される時間的位置符号化は、高周波数(短時間スケール)の周波数をキャプチャする重大な制限を有することを示す。
また、空間的および時間的方向の両方で容易に消費可能な診断情報を提供する新しいST依存性発見フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-26T05:31:23Z) - It is all Connected: A New Graph Formulation for Spatio-Temporal
Forecasting [1.278093617645299]
グラフニューラルネットワーク(GNN)ネットワークを用いて時間的および空間的依存関係を学習するためのフレームワークを提案する。
GNNは、すべてのサンプルをグラフ内の独自のノードとして表現する。
このフレームワークは時間次元に沿った測定を必要としないため、データサンプリングの計算を必要とせずに、不規則な時系列、異なる周波数、または欠落データを容易にする。
論文 参考訳(メタデータ) (2023-03-23T11:16:33Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - An Improved Time Feedforward Connections Recurrent Neural Networks [3.0965505512285967]
リカレントニューラルネットワーク(RNN)は洪水予測や財務データ処理といった時間的問題に広く応用されている。
従来のRNNモデルは、厳密な時系列依存性のために勾配問題を増幅する。
勾配問題に対処するために、改良された時間フィードフォワード接続リカレントニューラルネットワーク(TFC-RNN)モデルが最初に提案された。
単一ゲートリカレントユニット(Single Gate Recurrent Unit, SGRU)と呼ばれる新しい細胞構造が提示され、RNNセルのパラメータ数が減少した。
論文 参考訳(メタデータ) (2022-11-03T09:32:39Z) - Space-Time Graph Neural Networks with Stochastic Graph Perturbations [100.31591011966603]
時空間グラフニューラルネットワーク(ST-GNN)は、時間変動データの効率的なグラフ表現を学習する。
本稿では,ST-GNNの特性を再検討し,安定なグラフ安定性を示す。
解析の結果,ST-GNNは時間変化グラフ上での移動学習に適していることが示唆された。
論文 参考訳(メタデータ) (2022-10-28T16:59:51Z) - Towards Generating Real-World Time Series Data [52.51620668470388]
時系列データ生成のための新しい生成フレームワーク - RTSGANを提案する。
RTSGANは、時系列インスタンスと固定次元潜在ベクトルの間のマッピングを提供するエンコーダデコーダモジュールを学習する。
不足した値の時系列を生成するために、RTSGANに観測埋め込み層と決定・生成デコーダを更に装備する。
論文 参考訳(メタデータ) (2021-11-16T11:31:37Z) - Space-Time Graph Neural Networks [104.55175325870195]
本研究では、時空間グラフニューラルネットワーク(ST-GNN)を導入し、時間変動ネットワークデータの時空間トポロジを共同処理する。
解析の結果,システムのネットワークトポロジと時間進化の変動はST-GNNの性能に大きく影響しないことがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:08:44Z) - Spatial Aggregation and Temporal Convolution Networks for Real-time
Kriging [3.4386226615580107]
SATCNは、モデル仕様を必要とせずに、様々なデータセットに対してテンポラリグを実行する、普遍的で柔軟なフレームワークである。
我々は時間的畳み込みネットワークによってノードをキャプチャし、モデルがさまざまなサイズのデータに対処できるようにする。
我々は、交通や気候記録を含む3つの実世界のデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-24T18:43:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。