論文の概要: TransFusion: Generating Long, High Fidelity Time Series using Diffusion
Models with Transformers
- arxiv url: http://arxiv.org/abs/2307.12667v1
- Date: Mon, 24 Jul 2023 10:14:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 14:41:36.065761
- Title: TransFusion: Generating Long, High Fidelity Time Series using Diffusion
Models with Transformers
- Title(参考訳): TransFusion: 変圧器を用いた拡散モデルを用いた長距離高忠実時系列生成
- Authors: Md Fahim Sikder, Resmi Ramachandranpillai, Fredrik Heintz
- Abstract要約: 本研究では,高品質な時系列時系列データを生成するための拡散・変圧器に基づく生成モデルであるTransFusionを提案する。
私たちの知る限りでは、この長いシーケンスの長さで実施された最初の研究です。
我々はTransFusionを様々な視覚的・経験的な指標で評価し、TransFusionは従来の最先端技術よりも大幅に優れています。
- 参考スコア(独自算出の注目度): 3.2689702143620143
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The generation of high-quality, long-sequenced time-series data is essential
due to its wide range of applications. In the past, standalone Recurrent and
Convolutional Neural Network-based Generative Adversarial Networks (GAN) were
used to synthesize time-series data. However, they are inadequate for
generating long sequences of time-series data due to limitations in the
architecture. Furthermore, GANs are well known for their training instability
and mode collapse problem. To address this, we propose TransFusion, a
diffusion, and transformers-based generative model to generate high-quality
long-sequence time-series data. We have stretched the sequence length to 384,
and generated high-quality synthetic data. To the best of our knowledge, this
is the first study that has been done with this long-sequence length. Also, we
introduce two evaluation metrics to evaluate the quality of the synthetic data
as well as its predictive characteristics. We evaluate TransFusion with a wide
variety of visual and empirical metrics, and TransFusion outperforms the
previous state-of-the-art by a significant margin.
- Abstract(参考訳): 高品質で長い時系列データの生成は、その幅広い応用のために不可欠である。
過去には、時系列データを合成するためにスタンドアロンのRecurrent and Convolutional Neural Network-based Generative Adversarial Networks (GAN) が用いられた。
しかし、アーキテクチャの制約のため、時系列データの長いシーケンスを生成するには不十分である。
さらにganは、トレーニング不安定性とモード崩壊問題でよく知られている。
そこで本研究では,高品位な時系列データを生成するために,トランスフュージョン,拡散,トランスフォーマーに基づく生成モデルを提案する。
配列長を384に拡張し,高品質な合成データを生成した。
私たちの知る限りでは、これはこの長い列の長さでなされた最初の研究です。
また,合成データの品質とその予測特性を評価するために,評価指標を2つ導入する。
我々はTransFusionを様々な視覚的・経験的な指標で評価し、TransFusionは従来の最先端技術よりも大幅に優れています。
関連論文リスト
- Rough Transformers: Lightweight Continuous-Time Sequence Modelling with Path Signatures [46.58170057001437]
本稿では,入力シーケンスの連続時間表現で動作するトランスフォーマーモデルのバリエーションであるRough Transformerを紹介する。
様々な時系列関連タスクにおいて、Rough Transformersはベニラアテンションよりも常に優れています。
論文 参考訳(メタデータ) (2024-05-31T14:00:44Z) - Rough Transformers for Continuous and Efficient Time-Series Modelling [46.58170057001437]
実世界の医療環境における時系列データは、典型的には長距離依存を示し、一様でない間隔で観察される。
本稿では,入力シーケンスの連続時間表現で動作するトランスフォーマーモデルのバリエーションであるRough Transformerを紹介する。
Rough Transformersは、Neural ODEベースのモデルの利点を得ながら、バニラアテンションを一貫して上回ります。
論文 参考訳(メタデータ) (2024-03-15T13:29:45Z) - GAT-GAN : A Graph-Attention-based Time-Series Generative Adversarial
Network [0.0]
我々はGAT-GAN(Graph-Attention-based Generative Adversarial Network)を提案する。
GAT-GANは、敵対的に訓練されたオートエンコーダアーキテクチャを用いて、高忠実度の時系列データを生成する。
本稿では、Frechet Transformer distance(FTD)スコアと呼ばれる時系列データに対するFrechet Inception distance-like(FID)メトリクスを導入し、生成データの品質と多様性を評価する。
論文 参考訳(メタデータ) (2023-06-03T04:23:49Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - TTS-CGAN: A Transformer Time-Series Conditional GAN for Biosignal Data
Augmentation [5.607676459156789]
我々は,既存のマルチクラスデータセットに基づいて学習し,クラス固有の合成時系列列を生成する条件付きGANモデルであるTS-CGANを提案する。
我々のモデルによって生成された合成シーケンスは、実データとは区別できないため、同じタイプの実信号の補完や置換に使うことができる。
論文 参考訳(メタデータ) (2022-06-28T01:01:34Z) - TTS-GAN: A Transformer-based Time-Series Generative Adversarial Network [4.989480853499916]
時系列データは、医療機械学習アプリケーションで使用される最も一般的なタイプのデータの1つである。
本稿では,現実的な合成時系列データ列を生成可能な変換器ベースのGANであるTS-GANを紹介する。
実時間と生成した時系列データの類似性を実証するために,可視化と次元削減技術を用いている。
論文 参考訳(メタデータ) (2022-02-06T03:05:47Z) - Towards Generating Real-World Time Series Data [52.51620668470388]
時系列データ生成のための新しい生成フレームワーク - RTSGANを提案する。
RTSGANは、時系列インスタンスと固定次元潜在ベクトルの間のマッピングを提供するエンコーダデコーダモジュールを学習する。
不足した値の時系列を生成するために、RTSGANに観測埋め込み層と決定・生成デコーダを更に装備する。
論文 参考訳(メタデータ) (2021-11-16T11:31:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。