論文の概要: DLGAN : Time Series Synthesis Based on Dual-Layer Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2508.21340v1
- Date: Fri, 29 Aug 2025 05:58:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.931676
- Title: DLGAN : Time Series Synthesis Based on Dual-Layer Generative Adversarial Networks
- Title(参考訳): DLGAN : 二重層生成逆数ネットワークに基づく時系列合成
- Authors: Xuan Hou, Shuhan Liu, Zhaohui Peng, Yaohui Chu, Yue Zhang, Yining Wang,
- Abstract要約: 簡単な生成モデルである textbfDual-textbfLayer textbfGenerative textbfAdversarial textbfNetworks, textbfDLGAN を提案する。
まず、これら2つの段階が完全時系列オートエンコーダを形成し、元の時系列における教師あり学習を可能にし、復元プロセスがシーケンスの時間的依存関係を復元できるようにする。
- 参考スコア(独自算出の注目度): 13.345872524896722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series synthesis is an effective approach to ensuring the secure circulation of time series data. Existing time series synthesis methods typically perform temporal modeling based on random sequences to generate target sequences, which often struggle to ensure the temporal dependencies in the generated time series. Additionally, directly modeling temporal features on random sequences makes it challenging to accurately capture the feature information of the original time series. To address the above issues, we propose a simple but effective generative model \textbf{D}ual-\textbf{L}ayer \textbf{G}enerative \textbf{A}dversarial \textbf{N}etworks, named \textbf{DLGAN}. The model decomposes the time series generation process into two stages: sequence feature extraction and sequence reconstruction. First, these two stages form a complete time series autoencoder, enabling supervised learning on the original time series to ensure that the reconstruction process can restore the temporal dependencies of the sequence. Second, a Generative Adversarial Network (GAN) is used to generate synthetic feature vectors that align with the real-time sequence feature vectors, ensuring that the generator can capture the temporal features from real time series. Extensive experiments on four public datasets demonstrate the superiority of this model across various evaluation metrics.
- Abstract(参考訳): 時系列合成は、時系列データの安全な循環を保証する効果的な手法である。
既存の時系列合成法は、通常、ランダムシーケンスに基づいて時間的モデリングを行い、ターゲットシーケンスを生成するが、しばしば生成された時系列の時間的依存関係を保証するのに苦労する。
さらに、乱数列の時間的特徴を直接モデル化することで、元の時系列の特徴情報を正確に捉えることが困難になる。
上記の問題に対処するために、単純で効果的な生成モデルである \textbf{D}ual-\textbf{L}ayer \textbf{G}enerative \textbf{A}dversarial \textbf{N}etworks を提案する。
このモデルは時系列生成プロセスを、シーケンス特徴抽出とシーケンス再構成の2段階に分解する。
まず、これら2つのステージは完全な時系列オートエンコーダを形成し、元の時系列を教師付きで学習することで、復元プロセスがシーケンスの時間的依存関係を復元できるようにする。
第2に、GAN(Generative Adversarial Network)は、リアルタイムのシーケンス特徴ベクトルと整合する合成特徴ベクトルを生成するために使用され、生成元がリアルタイムの時系列から時間的特徴をキャプチャできることを保証する。
4つの公開データセットに対する大規模な実験は、様々な評価指標にまたがって、このモデルの優位性を実証している。
関連論文リスト
- MFRS: A Multi-Frequency Reference Series Approach to Scalable and Accurate Time-Series Forecasting [51.94256702463408]
時系列予測は、周波数の異なる周期特性から導かれる。
マルチ周波数参照系列相関解析に基づく新しい時系列予測手法を提案する。
主要なオープンデータセットと合成データセットの実験は、最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-03-11T11:40:14Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための因果変換器Timer-XLを提案する。
大規模な事前トレーニングに基づいて、Timer-XLは最先端のゼロショット性能を達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - TS-Diffusion: Generating Highly Complex Time Series with Diffusion
Models [12.646560434352478]
我々は、サンプリング不規則性、欠如、大きな特徴時間次元を含む3つの共通の悪い性質を持つ時系列のクラスを考える。
このような複雑な時系列を処理するための一般モデルTS-Diffusionを導入する。
我々は、複数の時系列データセットについて広範な実験を行い、TS-Diffusionが従来の時系列と複雑な時系列の両方で優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2023-11-06T17:52:08Z) - Time-to-Pattern: Information-Theoretic Unsupervised Learning for
Scalable Time Series Summarization [7.294418916091012]
時系列要約におけるT2P(Time-to-Pattern)という手法を提案する。
T2Pは、最小記述長の概念に従って、最も有能な情報をエンコードする多様なパターンの集合を見つけることを目的としている。
人工的および実世界の実験により、T2Pはノイズや複雑な環境においても、情報的パターンを発見することが判明した。
論文 参考訳(メタデータ) (2023-08-26T01:15:32Z) - GT-GAN: General Purpose Time Series Synthesis with Generative
Adversarial Networks [11.157586814297138]
本稿では,通常の時系列データと不規則時系列データを合成する汎用モデルを提案する。
我々は,多くの関連技術が注意深く1つのフレームワークに統合される,生成的対向的ネットワークベースの手法を設計する。
論文 参考訳(メタデータ) (2022-10-05T06:18:06Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Towards Generating Real-World Time Series Data [52.51620668470388]
時系列データ生成のための新しい生成フレームワーク - RTSGANを提案する。
RTSGANは、時系列インスタンスと固定次元潜在ベクトルの間のマッピングを提供するエンコーダデコーダモジュールを学習する。
不足した値の時系列を生成するために、RTSGANに観測埋め込み層と決定・生成デコーダを更に装備する。
論文 参考訳(メタデータ) (2021-11-16T11:31:37Z) - Time Series is a Special Sequence: Forecasting with Sample Convolution
and Interaction [9.449017120452675]
時系列データ(英: time series)とは、時系列データの一種で、時系列で記録された観測の集合である。
既存のディープラーニング技術では、時系列解析にジェネリックシーケンスモデルを使用しており、そのユニークな性質を無視している。
本稿では,新しいニューラルネットワークアーキテクチャを提案し,時系列予測問題に適用し,時間的モデリングのための複数の解像度でサンプル畳み込みと相互作用を行う。
論文 参考訳(メタデータ) (2021-06-17T08:15:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。