論文の概要: AVATAR: Adversarial Autoencoders with Autoregressive Refinement for Time Series Generation
- arxiv url: http://arxiv.org/abs/2501.01649v1
- Date: Fri, 03 Jan 2025 05:44:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 15:12:13.350077
- Title: AVATAR: Adversarial Autoencoders with Autoregressive Refinement for Time Series Generation
- Title(参考訳): AVATAR:時系列生成のための自己回帰リファインメント付き対向オートエンコーダ
- Authors: MohammadReza EskandariNasab, Shah Muhammad Hamdi, Soukaina Filali Boubrahimi,
- Abstract要約: AVATARは,AAE(Adversarial Autoencoders)とAutoregressive Learningを組み合わせた時系列データを生成するフレームワークである。
具体的には、オートエンコーダをスーパーバイザと統合し、デコーダが時系列データの時間的ダイナミクスを学習するのを支援するために、新しい教師付き損失を導入する。
- 参考スコア(独自算出の注目度): 0.9374652839580181
- License:
- Abstract: Data augmentation can significantly enhance the performance of machine learning tasks by addressing data scarcity and improving generalization. However, generating time series data presents unique challenges. A model must not only learn a probability distribution that reflects the real data distribution but also capture the conditional distribution at each time step to preserve the inherent temporal dependencies. To address these challenges, we introduce AVATAR, a framework that combines Adversarial Autoencoders (AAE) with Autoregressive Learning to achieve both objectives. Specifically, our technique integrates the autoencoder with a supervisor and introduces a novel supervised loss to assist the decoder in learning the temporal dynamics of time series data. Additionally, we propose another innovative loss function, termed distribution loss, to guide the encoder in more efficiently aligning the aggregated posterior of the autoencoder's latent representation with a prior Gaussian distribution. Furthermore, our framework employs a joint training mechanism to simultaneously train all networks using a combined loss, thereby fulfilling the dual objectives of time series generation. We evaluate our technique across a variety of time series datasets with diverse characteristics. Our experiments demonstrate significant improvements in both the quality and practical utility of the generated data, as assessed by various qualitative and quantitative metrics.
- Abstract(参考訳): データ拡張は、データの不足に対処し、一般化を改善することで、機械学習タスクのパフォーマンスを大幅に向上させることができる。
しかし、時系列データの生成には固有の課題がある。
モデルは、実際のデータ分布を反映する確率分布を学習するだけでなく、各時点における条件分布をキャプチャして、固有の時間的依存関係を保存する必要がある。
これらの課題に対処するために,Adversarial Autoencoders(AAE)とAutoregressive Learningを組み合わせたフレームワークであるAVATARを導入する。
具体的には、オートエンコーダをスーパーバイザと統合し、デコーダが時系列データの時間的ダイナミクスを学習するのを支援するために、新しい教師付き損失を導入する。
さらに,従来のガウス分布と自己エンコーダの潜在表現の集合後部をより効率的に整合させるために,分布損失と呼ばれる別の革新的な損失関数を提案する。
さらに,本フレームワークでは,統合損失を用いて全ネットワークを同時にトレーニングし,時系列生成の2つの目的を達成するための共同トレーニング機構を採用している。
本手法は,様々な特徴を持つ時系列データセットにまたがって評価する。
本実験は, 各種定性的, 定量的な測定値から, 生成データの品質と実用性の両方において有意な改善が認められた。
関連論文リスト
- Neural Conformal Control for Time Series Forecasting [54.96087475179419]
非定常環境における適応性を高める時系列のニューラルネットワーク共形予測手法を提案する。
提案手法は,ニューラルネットワークエンコーダを用いた補助的マルチビューデータを活用することにより,望ましい対象範囲を達成するために設計されたニューラルネットワークコントローラとして機能する。
予測間隔の整合性に優れたキャリブレーションを組み合わさった手法は, 適用範囲と確率的精度の大幅な向上を実証的に示す。
論文 参考訳(メタデータ) (2024-12-24T03:56:25Z) - Tackling Data Heterogeneity in Federated Time Series Forecasting [61.021413959988216]
時系列予測は、エネルギー消費予測、病気の伝染モニタリング、天気予報など、様々な実世界の応用において重要な役割を果たす。
既存のほとんどのメソッドは、分散デバイスから中央クラウドサーバに大量のデータを収集する、集中的なトレーニングパラダイムに依存しています。
本稿では,情報合成データを補助的知識キャリアとして生成することにより,データの均一性に対処する新しいフレームワークであるFed-TRENDを提案する。
論文 参考訳(メタデータ) (2024-11-24T04:56:45Z) - SeriesGAN: Time Series Generation via Adversarial and Autoregressive Learning [0.9374652839580181]
本稿では, 自己エンコーダ生成型埋め込み空間の利点と, GANの対角運動力学を融合した高度なフレームワークを提案する。
この方法は2つの識別器を用いており、1つはジェネレータを特に誘導し、もう1つはオートエンコーダとジェネレータの出力を洗練させる。
我々のフレームワークは高忠実な時系列データを生成するのに優れており、既存の最先端のベンチマークを一貫して上回っている。
論文 参考訳(メタデータ) (2024-10-28T16:49:03Z) - ChronoGAN: Supervised and Embedded Generative Adversarial Networks for Time Series Generation [0.9374652839580181]
これらの問題を効果的に解決し緩和することを目的とした堅牢なフレームワークを導入します。
このフレームワークは、Autoencoderの生成した埋め込み空間の利点と、GANの対角的トレーニングダイナミクスを統合する。
我々は、安定度を高め、短命連続と短命連続の両方で効果的な一般化を保証するために、初期生成アルゴリズムと改良されたニューラルネットワークアーキテクチャを導入する。
論文 参考訳(メタデータ) (2024-09-21T04:51:35Z) - Representation Learning of Multivariate Time Series using Attention and Adversarial Training [1.7418480517632609]
変換器をベースとしたオートエンコーダを提案し, 逆方向のトレーニングスキームを用いて, 人工時系列信号を生成する。
その結果,生成した信号は畳み込みネットワークを用いた場合よりも,模範的データセットとの類似性が高いことがわかった。
論文 参考訳(メタデータ) (2024-01-03T21:32:46Z) - Generative Modeling of Regular and Irregular Time Series Data via Koopman VAEs [50.25683648762602]
モデルの新しい設計に基づく新しい生成フレームワークであるKoopman VAEを紹介する。
クープマン理論に触発され、線形写像を用いて潜在条件事前力学を表現する。
KoVAEは、いくつかの挑戦的な合成および実世界の時系列生成ベンチマークにおいて、最先端のGANおよびVAEメソッドより優れている。
論文 参考訳(メタデータ) (2023-10-04T07:14:43Z) - Dynamic Network-Assisted D2D-Aided Coded Distributed Learning [59.29409589861241]
本稿では,デバイス間のロードバランシングのための新しいデバイス・ツー・デバイス(D2D)支援型符号化学習手法(D2D-CFL)を提案する。
最小処理時間を達成するための最適圧縮率を導出し、収束時間との接続を確立する。
提案手法は,ユーザが継続的にトレーニングデータを生成するリアルタイム協調アプリケーションに有用である。
論文 参考訳(メタデータ) (2021-11-26T18:44:59Z) - Towards Generating Real-World Time Series Data [52.51620668470388]
時系列データ生成のための新しい生成フレームワーク - RTSGANを提案する。
RTSGANは、時系列インスタンスと固定次元潜在ベクトルの間のマッピングを提供するエンコーダデコーダモジュールを学習する。
不足した値の時系列を生成するために、RTSGANに観測埋め込み層と決定・生成デコーダを更に装備する。
論文 参考訳(メタデータ) (2021-11-16T11:31:37Z) - PIETS: Parallelised Irregularity Encoders for Forecasting with
Heterogeneous Time-Series [5.911865723926626]
マルチソースデータセットの不均一性と不規則性は時系列解析において重要な課題となる。
本研究では、異種時系列をモデル化するための新しいアーキテクチャ、PIETSを設計する。
PIETSは異種時間データを効果的にモデル化し、予測タスクにおける他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-09-30T20:01:19Z) - Dual Adversarial Auto-Encoders for Clustering [152.84443014554745]
教師なしクラスタリングのためのDual-AAE(Dual-AAE)を提案する。
Dual-AAEの目的関数に対する変分推論を行うことで,一対のオートエンコーダをトレーニングすることで最適化可能な新たな再構成損失を導出する。
4つのベンチマーク実験により、Dual-AAEは最先端のクラスタリング手法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-23T13:16:34Z) - Conditional Mutual information-based Contrastive Loss for Financial Time
Series Forecasting [12.0855096102517]
金融時系列予測のための表現学習フレームワークを提案する。
本稿では、まず時系列データからコンパクトな表現を学習し、次に学習した表現を用いて、時系列の動きを予測するためのより単純なモデルを訓練する。
論文 参考訳(メタデータ) (2020-02-18T15:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。