論文の概要: Time-series Transformer Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2205.11164v1
- Date: Mon, 23 May 2022 10:04:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 19:24:12.527939
- Title: Time-series Transformer Generative Adversarial Networks
- Title(参考訳): 時系列変換器生成対応ネットワーク
- Authors: Padmanaba Srinivasan, William J. Knottenbelt
- Abstract要約: 本稿では,時系列データに特化して生じる制約について考察し,合成時系列を生成するモデルを提案する。
合成時系列データを生成するモデルには,(1)実列の段階的条件分布を捉えること,(2)実列全体の結合分布を忠実にモデル化すること,の2つの目的がある。
TsT-GANは、Transformerアーキテクチャを活用してデシラタを満足させ、その性能を5つのデータセット上の5つの最先端モデルと比較するフレームワークである。
- 参考スコア(独自算出の注目度): 5.254093731341154
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Many real-world tasks are plagued by limitations on data: in some instances
very little data is available and in others, data is protected by privacy
enforcing regulations (e.g. GDPR). We consider limitations posed specifically
on time-series data and present a model that can generate synthetic time-series
which can be used in place of real data. A model that generates synthetic
time-series data has two objectives: 1) to capture the stepwise conditional
distribution of real sequences, and 2) to faithfully model the joint
distribution of entire real sequences. Autoregressive models trained via
maximum likelihood estimation can be used in a system where previous
predictions are fed back in and used to predict future ones; in such models,
errors can accrue over time. Furthermore, a plausible initial value is required
making MLE based models not really generative. Many downstream tasks learn to
model conditional distributions of the time-series, hence, synthetic data drawn
from a generative model must satisfy 1) in addition to performing 2). We
present TsT-GAN, a framework that capitalises on the Transformer architecture
to satisfy the desiderata and compare its performance against five
state-of-the-art models on five datasets and show that TsT-GAN achieves higher
predictive performance on all datasets.
- Abstract(参考訳): 現実のタスクの多くは、データ上の制限によって悩まされている: 非常に少ないデータしか利用できない場合や、プライバシーによって保護されている場合(GDPRなど)。
時系列データに特化して生じる制約を考察し,実データの代わりに使用できる合成時系列を生成するモデルを提案する。
時系列データを生成するモデルには,2つの目的がある。
1)実数列の段階的な条件分布を捉えること、及び
2) 実列全体の結合分布を忠実にモデル化する。
最大確率推定によってトレーニングされた自己回帰モデルは、以前の予測が入力され、将来の予測に使用されるシステムで使用できます。
さらに、MLEベースのモデルが実際には生成的でないように、妥当な初期値が必要である。
多くの下流タスクは時系列の条件分布をモデル化することを学ぶため、生成モデルから得られた合成データが満足しなければならない。
1) 実施の他,2) 実施する。
本稿では,トランスフォーマーアーキテクチャを活かしてデシデラータを満たし,その性能を5つのデータセット上の5つの最先端モデルと比較するフレームワークであるtst-ganについて述べる。
関連論文リスト
- Timer: Transformers for Time Series Analysis at Scale [87.9808714449511]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Generative Modeling of Regular and Irregular Time Series Data via
Koopman VAEs [53.91784369229405]
モデルの新しい設計に基づく新しい生成フレームワークであるKoopman VAEを紹介する。
クープマン理論に触発され、線形写像を用いて潜在条件事前力学を表現する。
以上の結果から,KVAEは,合成および実世界の時系列生成ベンチマークにおいて,最先端のGAN法およびVAE法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-04T07:14:43Z) - On the Stability of Iterative Retraining of Generative Models on their
own Data [56.153542044045224]
生成モデルの訓練がデータセット(実データと合成データの混合データ)の安定性に及ぼす影響について検討した。
まず、初期生成モデルがデータ分布を十分に近似する条件下で反復学習の安定性を実証する。
我々は,CIFAR10およびFFHQ上の正規化フローと最先端拡散モデルの反復的訓練により,合成画像と自然画像の両方に関する理論を実証的に検証した。
論文 参考訳(メタデータ) (2023-09-30T16:41:04Z) - MADS: Modulated Auto-Decoding SIREN for time series imputation [9.673093148930874]
我々は,暗黙のニューラル表現に基づく時系列計算のための新しい自動デコードフレームワークMADSを提案する。
実世界の2つのデータセット上で本モデルを評価し,時系列計算における最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-03T09:08:47Z) - Deep Latent State Space Models for Time-Series Generation [68.45746489575032]
状態空間ODEに従って進化する潜伏変数を持つ列の生成モデルLS4を提案する。
近年の深層状態空間モデル(S4)に着想を得て,LS4の畳み込み表現を利用して高速化を実現する。
LS4は, 実世界のデータセット上での限界分布, 分類, 予測スコアにおいて, 従来の連続時間生成モデルよりも有意に優れていた。
論文 参考訳(メタデータ) (2022-12-24T15:17:42Z) - HigeNet: A Highly Efficient Modeling for Long Sequence Time Series
Prediction in AIOps [30.963758935255075]
本稿では,HigeNetという高効率モデルを提案し,時系列時系列の予測を行う。
モデルのトレーニング時間,資源使用量,精度は,5つの最先端競合モデルよりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2022-11-13T13:48:43Z) - Transformer-based conditional generative adversarial network for
multivariate time series generation [0.0]
時間依存データの条件付き生成は、非常に関心のあるタスクである。
変圧器を用いた時系列生成対向ネットワーク(TTS-GAN)の最近の提案
我々は、その生成された出力を特定のエンコードされたコンテキストに条件付けすることで、TS-GANを拡張する。
この変換器をベースとしたCGANは,異なる条件下で現実的な高次元および長大なデータ列を生成することができることを示す。
論文 参考訳(メタデータ) (2022-10-05T08:29:33Z) - TTS-CGAN: A Transformer Time-Series Conditional GAN for Biosignal Data
Augmentation [5.607676459156789]
我々は,既存のマルチクラスデータセットに基づいて学習し,クラス固有の合成時系列列を生成する条件付きGANモデルであるTS-CGANを提案する。
我々のモデルによって生成された合成シーケンスは、実データとは区別できないため、同じタイプの実信号の補完や置換に使うことができる。
論文 参考訳(メタデータ) (2022-06-28T01:01:34Z) - SeDyT: A General Framework for Multi-Step Event Forecasting via Sequence
Modeling on Dynamic Entity Embeddings [6.314274045636102]
イベント予測は、時間的知識グラフ推論において重要で困難なタスクである。
本稿では,動的エンティティ埋め込み上でシーケンスモデリングを行う識別フレームワークであるSeDyTを提案する。
時間的グラフニューラルネットワークモデルとシーケンスモデルを組み合わせることで、SeDyTは平均2.4%のMRR改善を実現している。
論文 参考訳(メタデータ) (2021-09-09T20:32:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。