論文の概要: Transformer-based conditional generative adversarial network for
multivariate time series generation
- arxiv url: http://arxiv.org/abs/2210.02089v1
- Date: Wed, 5 Oct 2022 08:29:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 13:06:24.168223
- Title: Transformer-based conditional generative adversarial network for
multivariate time series generation
- Title(参考訳): 多変量時系列生成のためのトランスベース条件付き生成逆ネットワーク
- Authors: Abdellah Madane, Mohamed-djallel Dilmi, Florent Forest, Hanane Azzag,
Mustapha Lebbah, Jerome Lacaille
- Abstract要約: 時間依存データの条件付き生成は、非常に関心のあるタスクである。
変圧器を用いた時系列生成対向ネットワーク(TTS-GAN)の最近の提案
我々は、その生成された出力を特定のエンコードされたコンテキストに条件付けすることで、TS-GANを拡張する。
この変換器をベースとしたCGANは,異なる条件下で現実的な高次元および長大なデータ列を生成することができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional generation of time-dependent data is a task that has much
interest, whether for data augmentation, scenario simulation, completing
missing data, or other purposes. Recent works proposed a Transformer-based Time
series generative adversarial network (TTS-GAN) to address the limitations of
recurrent neural networks. However, this model assumes a unimodal distribution
and tries to generate samples around the expectation of the real data
distribution. One of its limitations is that it may generate a random
multivariate time series; it may fail to generate samples in the presence of
multiple sub-components within an overall distribution. One could train models
to fit each sub-component separately to overcome this limitation. Our work
extends the TTS-GAN by conditioning its generated output on a particular
encoded context allowing the use of one model to fit a mixture distribution
with multiple sub-components. Technically, it is a conditional generative
adversarial network that models realistic multivariate time series under
different types of conditions, such as categorical variables or multivariate
time series. We evaluate our model on UniMiB Dataset, which contains
acceleration data following the XYZ axes of human activities collected using
Smartphones. We use qualitative evaluations and quantitative metrics such as
Principal Component Analysis (PCA), and we introduce a modified version of the
Frechet inception distance (FID) to measure the performance of our model and
the statistical similarities between the generated and the real data
distributions. We show that this transformer-based CGAN can generate realistic
high-dimensional and long data sequences under different kinds of conditions.
- Abstract(参考訳): 時間依存データの条件付き生成は、データ拡張、シナリオシミュレーション、データ欠落の完了など、多くの関心を持つタスクである。
最近の研究は、繰り返し発生するニューラルネットワークの限界に対応するために、Transformerベースの時系列生成敵ネットワーク(TTS-GAN)を提案する。
しかし、このモデルでは、一様分布を仮定し、実データ分布の期待値に関するサンプルを生成する。
その制限の一つは、ランダムな多変量時系列を生成することであり、全体分布内に複数のサブコンポーネントが存在する場合、サンプルを生成できない可能性がある。
この制限を克服するために、各サブコンポーネントに個別に適合するようにモデルを訓練することができる。
我々の研究はtts-ganを拡張し、生成された出力を特定のエンコードされたコンテキストに条件付けすることで、1つのモデルが複数のサブコンポーネントとの混合分布に適合できるようにします。
技術的には、分類変数や多変量時系列などの異なる条件下で、現実的な多変量時系列をモデル化する条件生成逆数ネットワークである。
スマートフォンを用いて収集した人間の活動のXYZ軸に追従する加速度データを含むUniMiBデータセットのモデルを評価する。
我々は,主成分分析(PCA)などの定性評価と定量的指標を用いて,Frechet開始距離(FID)の修正版を導入し,モデルの性能と生成したデータと実データとの統計的類似度を測定する。
この変換器をベースとしたCGANは,異なる条件下で現実的な高次元および長大なデータ列を生成することができることを示す。
関連論文リスト
- Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - TimeDiT: General-purpose Diffusion Transformers for Time Series Foundation Model [11.281386703572842]
時間的自己回帰生成型トランスフォーマーアーキテクチャを利用するモデル群が開発されている。
TimeDiTは時系列の一般的な基礎モデルであり、時間的自己回帰生成の代わりにデノナイジング拡散パラダイムを用いる。
TimeDiTの有効性を実証するために,予測,計算,異常検出などのタスクの多種多様な実験を行った。
論文 参考訳(メタデータ) (2024-09-03T22:31:57Z) - UniTST: Effectively Modeling Inter-Series and Intra-Series Dependencies for Multivariate Time Series Forecasting [98.12558945781693]
フラット化されたパッチトークンに統一された注意機構を含む変圧器ベースモデルUniTSTを提案する。
提案モデルでは単純なアーキテクチャを採用しているが,時系列予測のためのいくつかのデータセットの実験で示されたような,魅力的な性能を提供する。
論文 参考訳(メタデータ) (2024-06-07T14:39:28Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - EdgeConvFormer: Dynamic Graph CNN and Transformer based Anomaly
Detection in Multivariate Time Series [7.514010315664322]
本研究では,階層化されたTime2vec埋め込み,動的グラフCNN,Transformerを統合し,グローバルかつ局所的な空間時間情報を抽出する新たな異常検出手法EdgeConvFormerを提案する。
実験により、EdgeConvFormerは、多変量時系列データから時空間モデリングを学習し、異なるスケールの多くの実世界のデータセットに対する最先端のアプローチよりも優れた異常検出性能を得ることができることが示された。
論文 参考訳(メタデータ) (2023-12-04T08:38:54Z) - Time-series Transformer Generative Adversarial Networks [5.254093731341154]
本稿では,時系列データに特化して生じる制約について考察し,合成時系列を生成するモデルを提案する。
合成時系列データを生成するモデルには,(1)実列の段階的条件分布を捉えること,(2)実列全体の結合分布を忠実にモデル化すること,の2つの目的がある。
TsT-GANは、Transformerアーキテクチャを活用してデシラタを満足させ、その性能を5つのデータセット上の5つの最先端モデルと比較するフレームワークである。
論文 参考訳(メタデータ) (2022-05-23T10:04:21Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Towards Synthetic Multivariate Time Series Generation for Flare
Forecasting [5.098461305284216]
データ駆動・レアイベント予測アルゴリズムのトレーニングにおける制限要因の1つは、関心のあるイベントの不足である。
本研究では,データインフォームド・オーバーサンプリングを行う手段として,条件付き生成逆数ネットワーク(CGAN)の有用性を検討する。
論文 参考訳(メタデータ) (2021-05-16T22:23:23Z) - Global Models for Time Series Forecasting: A Simulation Study [2.580765958706854]
自動回帰(AR)や季節ARのような単純なデータ生成プロセス(DGP)からカオスロジスティックマップ、自己興奮型閾値自動回帰、マッキーグラス方程式といった複雑なDGPまで、時系列をシミュレートする。
データセットの長さと系列数は、さまざまなシナリオで変化します。
我々はこれらのデータセットに対して,Recurrent Neural Networks (RNN), Feed-Forward Neural Networks, Pooled Regression (PR) Model, Light Gradient Boosting Models (LGBM)などの大域的予測モデルを用いて実験を行った。
論文 参考訳(メタデータ) (2020-12-23T04:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。