論文の概要: Data Augmentation in Time Series Forecasting through Inverted Framework
- arxiv url: http://arxiv.org/abs/2507.11439v2
- Date: Wed, 16 Jul 2025 11:40:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 12:30:11.795933
- Title: Data Augmentation in Time Series Forecasting through Inverted Framework
- Title(参考訳): 逆フレームワークによる時系列予測におけるデータ拡張
- Authors: Hongming Tan, Ting Chen, Ruochong Jin, Wai Kin Chan,
- Abstract要約: DAIFは、MTS予測における逆フレームワーク用に特別に設計された初めてのリアルタイム拡張である。
まず、逆列列列化フレームワークの構造を定義し、次に2つの異なるDAIF戦略を提案する。
複数のデータセットと逆モデルにわたる実験は、DAIFの有効性を実証した。
- 参考スコア(独自算出の注目度): 5.407715118778657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Currently, iTransformer is one of the most popular and effective models for multivariate time series (MTS) forecasting. Thanks to its inverted framework, iTransformer effectively captures multivariate correlation. However, the inverted framework still has some limitations. It diminishes temporal interdependency information, and introduces noise in cases of nonsignificant variable correlation. To address these limitations, we introduce a novel data augmentation method on inverted framework, called DAIF. Unlike previous data augmentation methods, DAIF stands out as the first real-time augmentation specifically designed for the inverted framework in MTS forecasting. We first define the structure of the inverted sequence-to-sequence framework, then propose two different DAIF strategies, Frequency Filtering and Cross-variation Patching to address the existing challenges of the inverted framework. Experiments across multiple datasets and inverted models have demonstrated the effectiveness of our DAIF.
- Abstract(参考訳): 現在、iTransformerは多変量時系列(MTS)予測において最も人気があり効果的なモデルの一つである。
逆フレームワークのおかげで、iTransformerは多変量相関を効果的にキャプチャする。
しかし、反転フレームワークには、まだいくつかの制限がある。
時間的相互依存情報を減少させ,非有意な変数相関の場合のノイズを生じさせる。
これらの制約に対処するため,DAIFと呼ばれる逆フレームワーク上での新たなデータ拡張手法を提案する。
従来のデータ拡張手法とは異なり、DAIFはMTS予測における逆フレームワーク用に特別に設計された初めてのリアルタイム拡張である。
まず、逆列列列化フレームワークの構造を定義し、次に、逆列化フレームワークの既存の課題に対処するための2つの異なるDAIF戦略である周波数フィルタリングと相互変化パッチングを提案する。
複数のデータセットと逆モデルにわたる実験により、DAIFの有効性が実証された。
関連論文リスト
- Gateformer: Advancing Multivariate Time Series Forecasting through Temporal and Variate-Wise Attention with Gated Representations [2.4302562182247636]
私たちはTransformerアーキテクチャを再使用して、クロスタイムとクロス変数の依存関係の両方をモデル化します。
提案手法は13の実世界のデータセットにまたがって最先端のパフォーマンスを実現し,オリジナルモデルよりも最大20.7%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2025-05-01T04:59:05Z) - Decomposition-based multi-scale transformer framework for time series anomaly detection [0.9438207505148947]
時系列異常検出のための分解(TransDe)に基づくトランスフォーマーベースのフレームワークを提案する。
時系列の各分解成分の代表的な依存関係を利用するために,マルチスケールのパッチベースのトランスフォーマーアーキテクチャを提案する。
TransDeの性能を効果的に向上するために、停止段階の戦略を持つ新しい非同期損失関数を導入した。
論文 参考訳(メタデータ) (2025-04-19T06:47:38Z) - MFRS: A Multi-Frequency Reference Series Approach to Scalable and Accurate Time-Series Forecasting [51.94256702463408]
時系列予測は、周波数の異なる周期特性から導かれる。
マルチ周波数参照系列相関解析に基づく新しい時系列予測手法を提案する。
主要なオープンデータセットと合成データセットの実験は、最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-03-11T11:40:14Z) - Ister: Inverted Seasonal-Trend Decomposition Transformer for Explainable Multivariate Time Series Forecasting [10.32586981170693]
Inverted Seasonal-Trend Decomposition Transformer (Ister)
本稿では,解釈可能性,計算効率,予測精度を向上させる新しいDotアテンション機構を提案する。
Isterはコンポーネントのコントリビューションを直感的に視覚化し、モデルの意思決定プロセスに光を流し、予測結果の透明性を高める。
論文 参考訳(メタデータ) (2024-12-25T06:37:19Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための因果変換器Timer-XLを提案する。
大規模な事前トレーニングに基づいて、Timer-XLは最先端のゼロショット性能を達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - Robust Multivariate Time Series Forecasting against Intra- and Inter-Series Transitional Shift [40.734564394464556]
本稿では,時系列内/時系列間の相関関係を統合的に把握し,時変遷移分布をモデル化するための統一確率グラフモデルを提案する。
6つの高定常MTSデータセットに対する広範囲な実験により、JointPGMの有効性と効率を検証した。
論文 参考訳(メタデータ) (2024-07-18T06:16:03Z) - UniTST: Effectively Modeling Inter-Series and Intra-Series Dependencies for Multivariate Time Series Forecasting [98.12558945781693]
フラット化されたパッチトークンに統一された注意機構を含む変圧器ベースモデルUniTSTを提案する。
提案モデルでは単純なアーキテクチャを採用しているが,時系列予測のためのいくつかのデータセットの実験で示されたような,魅力的な性能を提供する。
論文 参考訳(メタデータ) (2024-06-07T14:39:28Z) - Transform-Equivariant Consistency Learning for Temporal Sentence
Grounding [66.10949751429781]
ビデオ毎により差別的な表現を学習するために,新しい同変一貫性規則学習フレームワークを導入する。
私たちのモチベーションは、クエリ誘導アクティビティの時間的境界を一貫して予測することにある。
特に,ビデオの完全性と滑らか性を高めるために,自己教師付き一貫性損失モジュールを考案した。
論文 参考訳(メタデータ) (2023-05-06T19:29:28Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Are Transformers Effective for Time Series Forecasting? [13.268196448051308]
近年、時系列予測(TSF)タスクのためのTransformerベースのソリューションが急増している。
本研究は,Transformer-based techniqueが長期時系列予測に適した解であるかどうかを考察する。
変換器をベースとした解の長期予測精度が比較的高いことは,変換器アーキテクチャの時間的関係抽出能力とはほとんど関係がないことがわかった。
論文 参考訳(メタデータ) (2022-05-26T17:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。