論文の概要: L-GTA: Latent Generative Modeling for Time Series Augmentation
- arxiv url: http://arxiv.org/abs/2507.23615v1
- Date: Thu, 31 Jul 2025 14:53:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:10.006369
- Title: L-GTA: Latent Generative Modeling for Time Series Augmentation
- Title(参考訳): L-GTA: 時系列拡張のための潜在生成モデリング
- Authors: Luis Roque, Carlos Soares, Vitor Cerqueira, Luis Torgo,
- Abstract要約: 本稿では, 変圧器を用いた変圧器型リカレントオートエンコーダを用いたL-GTAモデルを提案する。
このモデルは、モデルの潜在空間内で制御された変換を使用して、元のデータセットの固有の特性を保存する新しい時系列を生成する。
複数の実世界のデータセットを評価することで、L-GTAがより信頼性が高く、一貫性があり、制御可能な拡張データを生成することができることを示す。
- 参考スコア(独自算出の注目度): 0.35998666903987897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data augmentation is gaining importance across various aspects of time series analysis, from forecasting to classification and anomaly detection tasks. We introduce the Latent Generative Transformer Augmentation (L-GTA) model, a generative approach using a transformer-based variational recurrent autoencoder. This model uses controlled transformations within the latent space of the model to generate new time series that preserve the intrinsic properties of the original dataset. L-GTA enables the application of diverse transformations, ranging from simple jittering to magnitude warping, and combining these basic transformations to generate more complex synthetic time series datasets. Our evaluation of several real-world datasets demonstrates the ability of L-GTA to produce more reliable, consistent, and controllable augmented data. This translates into significant improvements in predictive accuracy and similarity measures compared to direct transformation methods.
- Abstract(参考訳): データ拡張は、予測から分類、異常検出タスクまで、時系列分析の様々な側面において重要になっている。
本稿では, 変圧器を用いた変圧器型リカレントオートエンコーダを用いたL-GTAモデルを提案する。
このモデルは、モデルの潜在空間内で制御された変換を使用して、元のデータセットの固有の特性を保存する新しい時系列を生成する。
L-GTAは、単純なジッタリングからマグニチュード・ワープまで多様な変換の適用を可能にし、これらの基本的な変換を組み合わせてより複雑な合成時系列データセットを生成する。
複数の実世界のデータセットを評価することで、L-GTAがより信頼性が高く、一貫性があり、制御可能な拡張データを生成することができることを示す。
これにより、直接変換法と比較して予測精度と類似度が大幅に向上した。
関連論文リスト
- Fusing Large Language Models with Temporal Transformers for Time Series Forecasting [17.549938378193282]
大規模言語モデル(LLM)は、様々なタスクを実行する上で強力な能力を示している。
LLMは離散トークンやセマンティックパターンの推論に長けている。
バニラトランスフォーマーは、しばしば高レベルのセマンティックパターンを学ぶのに苦労する。
論文 参考訳(メタデータ) (2025-07-14T09:33:40Z) - Gateformer: Advancing Multivariate Time Series Forecasting through Temporal and Variate-Wise Attention with Gated Representations [2.4302562182247636]
私たちはTransformerアーキテクチャを再使用して、クロスタイムとクロス変数の依存関係の両方をモデル化します。
提案手法は13の実世界のデータセットにまたがって最先端のパフォーマンスを実現し,オリジナルモデルよりも最大20.7%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2025-05-01T04:59:05Z) - A temporal scale transformer framework for precise remaining useful life prediction in fuel cells [10.899223392837936]
TS Transformer (Temporal Scale Transformer) は、逆変換器(i Transformer)の拡張版である。
各タイムステップを入力トークンとして扱う従来のトランスフォーマーとは異なり、TSTransformerは異なる長さのシーケンスを異なる段階のトークンにマッピングし、シーケンス間モデリングを行う。
局所的な特徴抽出を改善し、時間スケールの特徴を捉え、トークン数と計算コストを削減する。
論文 参考訳(メタデータ) (2025-04-08T23:42:54Z) - PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - iTransformer: Inverted Transformers Are Effective for Time Series Forecasting [62.40166958002558]
iTransformerを提案する。これは、逆次元に注意とフィードフォワードのネットワークを単純に適用する。
iTransformerモデルは、挑戦的な現実世界のデータセットの最先端を実現する。
論文 参考訳(メタデータ) (2023-10-10T13:44:09Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。