論文の概要: Time-series Transformer Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2205.11164v1
- Date: Mon, 23 May 2022 10:04:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 19:24:12.527939
- Title: Time-series Transformer Generative Adversarial Networks
- Title(参考訳): 時系列変換器生成対応ネットワーク
- Authors: Padmanaba Srinivasan, William J. Knottenbelt
- Abstract要約: 本稿では,時系列データに特化して生じる制約について考察し,合成時系列を生成するモデルを提案する。
合成時系列データを生成するモデルには,(1)実列の段階的条件分布を捉えること,(2)実列全体の結合分布を忠実にモデル化すること,の2つの目的がある。
TsT-GANは、Transformerアーキテクチャを活用してデシラタを満足させ、その性能を5つのデータセット上の5つの最先端モデルと比較するフレームワークである。
- 参考スコア(独自算出の注目度): 5.254093731341154
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Many real-world tasks are plagued by limitations on data: in some instances
very little data is available and in others, data is protected by privacy
enforcing regulations (e.g. GDPR). We consider limitations posed specifically
on time-series data and present a model that can generate synthetic time-series
which can be used in place of real data. A model that generates synthetic
time-series data has two objectives: 1) to capture the stepwise conditional
distribution of real sequences, and 2) to faithfully model the joint
distribution of entire real sequences. Autoregressive models trained via
maximum likelihood estimation can be used in a system where previous
predictions are fed back in and used to predict future ones; in such models,
errors can accrue over time. Furthermore, a plausible initial value is required
making MLE based models not really generative. Many downstream tasks learn to
model conditional distributions of the time-series, hence, synthetic data drawn
from a generative model must satisfy 1) in addition to performing 2). We
present TsT-GAN, a framework that capitalises on the Transformer architecture
to satisfy the desiderata and compare its performance against five
state-of-the-art models on five datasets and show that TsT-GAN achieves higher
predictive performance on all datasets.
- Abstract(参考訳): 現実のタスクの多くは、データ上の制限によって悩まされている: 非常に少ないデータしか利用できない場合や、プライバシーによって保護されている場合(GDPRなど)。
時系列データに特化して生じる制約を考察し,実データの代わりに使用できる合成時系列を生成するモデルを提案する。
時系列データを生成するモデルには,2つの目的がある。
1)実数列の段階的な条件分布を捉えること、及び
2) 実列全体の結合分布を忠実にモデル化する。
最大確率推定によってトレーニングされた自己回帰モデルは、以前の予測が入力され、将来の予測に使用されるシステムで使用できます。
さらに、MLEベースのモデルが実際には生成的でないように、妥当な初期値が必要である。
多くの下流タスクは時系列の条件分布をモデル化することを学ぶため、生成モデルから得られた合成データが満足しなければならない。
1) 実施の他,2) 実施する。
本稿では,トランスフォーマーアーキテクチャを活かしてデシデラータを満たし,その性能を5つのデータセット上の5つの最先端モデルと比較するフレームワークであるtst-ganについて述べる。
関連論文リスト
- Tackling Data Heterogeneity in Federated Time Series Forecasting [61.021413959988216]
時系列予測は、エネルギー消費予測、病気の伝染モニタリング、天気予報など、様々な実世界の応用において重要な役割を果たす。
既存のほとんどのメソッドは、分散デバイスから中央クラウドサーバに大量のデータを収集する、集中的なトレーニングパラダイムに依存しています。
本稿では,情報合成データを補助的知識キャリアとして生成することにより,データの均一性に対処する新しいフレームワークであるFed-TRENDを提案する。
論文 参考訳(メタデータ) (2024-11-24T04:56:45Z) - Approximate Probabilistic Inference for Time-Series Data A Robust Latent Gaussian Model With Temporal Awareness [0.40924476987095715]
本稿では,時間的情報を取得するための確率的生成モデルを提案する。
我々のモデルは、負のログ損失に基づいて損失関数を最小限に抑えるために訓練されている。
実験により、tDLGMは複雑な時系列データを再構成して生成することができ、ノイズや故障データに対して堅牢であることが示された。
論文 参考訳(メタデータ) (2024-11-14T09:38:58Z) - sTransformer: A Modular Approach for Extracting Inter-Sequential and Temporal Information for Time-Series Forecasting [6.434378359932152]
既存のTransformerベースのモデルを,(1)モデル構造の変更,(2)入力データの変更の2つのタイプに分類する。
我々は、シーケンシャル情報と時間情報の両方をフルにキャプチャするSequence and Temporal Convolutional Network(STCN)を導入する$textbfsTransformer$を提案する。
我々は,線形モデルと既存予測モデルとを長期時系列予測で比較し,新たな成果を得た。
論文 参考訳(メタデータ) (2024-08-19T06:23:41Z) - TimeAutoDiff: Combining Autoencoder and Diffusion model for time series tabular data synthesizing [13.385264002435145]
本稿では、遅延拡散モデルのパワーを活用して、合成時系列表データを生成する。
可変オートエンコーダ(VAE)と拡散確率モデル(DDPM)のアイデアを組み合わせることでこの問題に対処する。
textttTimeAutoDiffという名前の私たちのモデルは、(1)汎用性:単一から複数シーケンスのデータセットの幅広い時系列データを処理できる能力など、いくつかの大きな利点があります。
論文 参考訳(メタデータ) (2024-06-23T06:32:27Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - On the Stability of Iterative Retraining of Generative Models on their own Data [56.153542044045224]
混合データセットに対する生成モデルの訓練が与える影響について検討する。
まず、初期生成モデルがデータ分布を十分に近似する条件下で反復学習の安定性を実証する。
我々は、正規化フローと最先端拡散モデルを繰り返し訓練することにより、合成画像と自然画像の両方に関する我々の理論を実証的に検証する。
論文 参考訳(メタデータ) (2023-09-30T16:41:04Z) - Deep Latent State Space Models for Time-Series Generation [68.45746489575032]
状態空間ODEに従って進化する潜伏変数を持つ列の生成モデルLS4を提案する。
近年の深層状態空間モデル(S4)に着想を得て,LS4の畳み込み表現を利用して高速化を実現する。
LS4は, 実世界のデータセット上での限界分布, 分類, 予測スコアにおいて, 従来の連続時間生成モデルよりも有意に優れていた。
論文 参考訳(メタデータ) (2022-12-24T15:17:42Z) - Transformer-based conditional generative adversarial network for
multivariate time series generation [0.0]
時間依存データの条件付き生成は、非常に関心のあるタスクである。
変圧器を用いた時系列生成対向ネットワーク(TTS-GAN)の最近の提案
我々は、その生成された出力を特定のエンコードされたコンテキストに条件付けすることで、TS-GANを拡張する。
この変換器をベースとしたCGANは,異なる条件下で現実的な高次元および長大なデータ列を生成することができることを示す。
論文 参考訳(メタデータ) (2022-10-05T08:29:33Z) - TTS-CGAN: A Transformer Time-Series Conditional GAN for Biosignal Data
Augmentation [5.607676459156789]
我々は,既存のマルチクラスデータセットに基づいて学習し,クラス固有の合成時系列列を生成する条件付きGANモデルであるTS-CGANを提案する。
我々のモデルによって生成された合成シーケンスは、実データとは区別できないため、同じタイプの実信号の補完や置換に使うことができる。
論文 参考訳(メタデータ) (2022-06-28T01:01:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。