論文の概要: Generative Models for Long Time Series: Approximately Equivariant Recurrent Network Structures for an Adjusted Training Scheme
- arxiv url: http://arxiv.org/abs/2505.05020v1
- Date: Thu, 08 May 2025 07:52:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.794097
- Title: Generative Models for Long Time Series: Approximately Equivariant Recurrent Network Structures for an Adjusted Training Scheme
- Title(参考訳): 時系列生成モデル:調整トレーニングスキームのためのほぼ同変リカレントネットワーク構造
- Authors: Ruwen Fulek, Markus Lange-Hegermann,
- Abstract要約: 本稿では,連続層を有する変分オートエンコーダ(VAE)に基づく時系列データに対する簡易かつ効果的な生成モデルを提案する。
本手法では,シーケンス長を漸進的に向上させる適応型トレーニング手法を提案する。
リカレントアーキテクチャを利用することで、モデルはシーケンス長に関係なく定数数のパラメータを保持する。
- 参考スコア(独自算出の注目度): 4.327763441385371
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a simple yet effective generative model for time series data based on a Variational Autoencoder (VAE) with recurrent layers, referred to as the Recurrent Variational Autoencoder with Subsequent Training (RVAE-ST). Our method introduces an adapted training scheme that progressively increases the sequence length, addressing the challenge recurrent layers typically face when modeling long sequences. By leveraging the recurrent architecture, the model maintains a constant number of parameters regardless of sequence length. This design encourages approximate time-shift equivariance and enables efficient modeling of long-range temporal dependencies. Rather than introducing a fundamentally new architecture, we show that a carefully composed combination of known components can match or outperform state-of-the-art generative models on several benchmark datasets. Our model performs particularly well on time series that exhibit quasi-periodic structure,while remaining competitive on datasets with more irregular or partially non-stationary behavior. We evaluate its performance using ELBO, Fr\'echet Distance, discriminative scores, and visualizations of the learned embeddings.
- Abstract(参考訳): 本稿では,連続層を持つ変動オートエンコーダ(VAE)をベースとした時系列データに対する簡易かつ効果的な生成モデルを提案する。
提案手法では,シーケンス長を漸進的に向上する適応型トレーニング手法を導入し,長いシーケンスをモデル化する際,通常直面するチャレンジリカレント層に対処する。
リカレントアーキテクチャを利用することで、モデルはシーケンス長に関係なく定数数のパラメータを保持する。
この設計は、近似時間シフトの等価性を奨励し、長距離時間依存性の効率的なモデリングを可能にする。
基本的に新しいアーキテクチャを導入するのではなく、既知のコンポーネントの慎重に構成された組み合わせが、いくつかのベンチマークデータセット上で、最先端の生成モデルにマッチまたは性能を向上できることを示す。
我々のモデルは、準周期構造を示す時系列において特によく機能するが、より不規則な、あるいは部分的に非定常な振る舞いを持つデータセットでは競争的である。
ELBO, Fr'echet Distance, 識別スコア, 学習した埋め込みの可視化による評価を行った。
関連論文リスト
- AverageTime: Enhance Long-Term Time Series Forecasting with Simple Averaging [6.125620036017928]
長期の時系列予測は、将来のトレンドを予測するために歴史的なデータを活用することに焦点を当てている。
主な課題は、シーケンスとチャネルの両方で依存関係を効果的にモデリングすることである。
本研究は,シーケンスとチャネルの依存関係をキャプチャするための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-12-30T05:56:25Z) - A Temporal Linear Network for Time Series Forecasting [0.0]
本稿では,線形モデルの能力を拡張しつつ,解釈性と計算効率を向上する時間線形ネット(TLN)を提案する。
我々のアプローチはアーキテクチャ全体を通して厳密な線形性を維持するTSMixerの変種である。
TLNの重要な革新は、同等の線形モデルを計算する能力であり、TSMixerのようなより複雑なアーキテクチャでは見つからないレベルの解釈性を提供する。
論文 参考訳(メタデータ) (2024-10-28T18:51:19Z) - Parsimony or Capability? Decomposition Delivers Both in Long-term Time Series Forecasting [46.63798583414426]
時系列予測(LTSF)は時系列分析において重要なフロンティアである。
本研究は, 分析的および実証的な証拠から, 分解が過剰なモデルインフレーションを包含する鍵であることを実証する。
興味深いことに、時系列データの本質的なダイナミクスに分解を合わせることで、提案モデルは既存のベンチマークより優れている。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Gated Recurrent Neural Networks with Weighted Time-Delay Feedback [59.125047512495456]
重み付き時間遅延フィードバック機構を備えた新しいゲートリカレントユニット(GRU)を導入する。
我々は、$tau$-GRUが、最先端のリカレントユニットやゲート型リカレントアーキテクチャよりも早く収束し、より一般化できることを示します。
論文 参考訳(メタデータ) (2022-12-01T02:26:34Z) - DCSF: Deep Convolutional Set Functions for Classification of
Asynchronous Time Series [5.339109578928972]
非同期時系列(Asynchronous Time Series)は、すべてのチャンネルが非同期に独立して観察される時系列である。
本稿では,非同期時系列分類タスクにおいて,高度にスケーラブルでメモリ効率のよい新しいフレームワークを提案する。
我々は、定期的にサンプリングされ、完全に観測される時系列の、密接に関連する問題分類のためによく研究されている畳み込みニューラルネットワークを探索する。
論文 参考訳(メタデータ) (2022-08-24T08:47:36Z) - Deep Explicit Duration Switching Models for Time Series [84.33678003781908]
状態依存型と時間依存型の両方のスイッチングダイナミクスを識別できるフレキシブルモデルを提案する。
状態依存スイッチングは、リカレントな状態-スイッチ接続によって実現される。
時間依存スイッチング動作を改善するために、明示的な期間カウント変数が使用される。
論文 参考訳(メタデータ) (2021-10-26T17:35:21Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。