論文の概要: TimeBridge: Non-Stationarity Matters for Long-term Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2410.04442v2
- Date: Sat, 12 Oct 2024 15:47:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 07:25:54.545164
- Title: TimeBridge: Non-Stationarity Matters for Long-term Time Series Forecasting
- Title(参考訳): TimeBridge: 時系列予測の非定常性
- Authors: Peiyuan Liu, Beiliang Wu, Yifan Hu, Naiqi Li, Tao Dai, Jigang Bao, Shu-tao Xia,
- Abstract要約: TimeBridgeは、非定常性と依存性モデリングの間のギャップを埋めるために設計された新しいフレームワークである。
TimeBridgeは、短期予測と長期予測の両方において、最先端のパフォーマンスを一貫して達成する。
- 参考スコア(独自算出の注目度): 49.6208017412376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-stationarity poses significant challenges for multivariate time series forecasting due to the inherent short-term fluctuations and long-term trends that can lead to spurious regressions or obscure essential long-term relationships. Most existing methods either eliminate or retain non-stationarity without adequately addressing its distinct impacts on short-term and long-term modeling. Eliminating non-stationarity is essential for avoiding spurious regressions and capturing local dependencies in short-term modeling, while preserving it is crucial for revealing long-term cointegration across variates. In this paper, we propose TimeBridge, a novel framework designed to bridge the gap between non-stationarity and dependency modeling in long-term time series forecasting. By segmenting input series into smaller patches, TimeBridge applies Integrated Attention to mitigate short-term non-stationarity and capture stable dependencies within each variate, while Cointegrated Attention preserves non-stationarity to model long-term cointegration across variates. Extensive experiments show that TimeBridge consistently achieves state-of-the-art performance in both short-term and long-term forecasting. Additionally, TimeBridge demonstrates exceptional performance in financial forecasting on the CSI 500 and S&P 500 indices, further validating its robustness and effectiveness. Code is available at \url{https://github.com/Hank0626/TimeBridge}.
- Abstract(参考訳): 非定常性は、本質的に短期的な変動と、急激な回帰や不明瞭な長期的関係をもたらす可能性のある長期的傾向のために、多変量時系列予測に重大な課題を生じさせる。
既存のほとんどの手法は、短期および長期のモデリングにおいて、その明確な影響を適切に解決することなく、非定常性を排除または維持する。
非定常性を排除することは、急激な回帰を避け、短期的なモデリングにおいて局所的な依存を捉えるのに不可欠である。
本稿では,時系列予測における非定常性と依存性モデリングのギャップを埋める新しいフレームワークであるTimeBridgeを提案する。
入力シリーズを小さなパッチに分割することで、TimeBridgeは短期的な非定常性を緩和し、各変数内の安定した依存関係をキャプチャするためにIntegrated Attentionを適用する。
大規模な実験により、TimeBridgeは短期および長期の予測において、常に最先端のパフォーマンスを達成することが示された。
さらに、TimeBridgeはCSI 500およびS&P 500指数の財務予測において例外的なパフォーマンスを示し、その堅牢性と有効性を検証する。
コードは \url{https://github.com/Hank0626/TimeBridge} で入手できる。
関連論文リスト
- Introducing Spectral Attention for Long-Range Dependency in Time Series Forecasting [8.458068118782519]
最近の線形および変圧器ベースの予測器は時系列予測において優れた性能を示している。
時系列データにおける長距離依存関係を効果的に扱うことができないという点で制約されている。
本稿では,試料間の時間的相関を保った高速かつ効果的なスペクトル注意機構を提案する。
論文 参考訳(メタデータ) (2024-10-28T06:17:20Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - Multiscale Representation Enhanced Temporal Flow Fusion Model for Long-Term Workload Forecasting [19.426131129034115]
本稿では,自己指導型マルチスケール表現学習を利用して,長期および短期のワークロードパターンを抽出する新しいフレームワークを提案する。
長期履歴はマルチスケール表現によって符号化され、短期観測は時流融合によってモデル化される。
論文 参考訳(メタデータ) (2024-07-29T04:42:18Z) - Learning Graph Structures and Uncertainty for Accurate and Calibrated Time-series Forecasting [65.40983982856056]
本稿では,時系列間の相関を利用して時系列間の構造を学習し,精度の高い正確な予測を行うSTOICを紹介する。
幅広いベンチマークデータセットに対して、STOICは16%の精度とキャリブレーションのよい予測を提供する。
論文 参考訳(メタデータ) (2024-07-02T20:14:32Z) - Self-Supervised Contrastive Learning for Long-term Forecasting [41.11757636744812]
長期予測は、時間とメモリの複雑さによる固有の課題を示す。
スライドウィンドウに頼って長いシーケンスを処理している既存の手法は、長期の変動を効果的に捉えるのに苦労している。
コントラスト学習と拡張分解アーキテクチャを用いて,この制限を克服する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-03T04:32:34Z) - Gated Recurrent Neural Networks with Weighted Time-Delay Feedback [59.125047512495456]
重み付き時間遅延フィードバック機構を備えた新しいゲートリカレントユニット(GRU)を導入する。
我々は、$tau$-GRUが、最先端のリカレントユニットやゲート型リカレントアーキテクチャよりも早く収束し、より一般化できることを示します。
論文 参考訳(メタデータ) (2022-12-01T02:26:34Z) - Grouped self-attention mechanism for a memory-efficient Transformer [64.0125322353281]
天気予報、電力消費、株式市場などの現実世界のタスクには、時間とともに変化するデータの予測が含まれる。
時系列データは通常、その周期的特性と時間的長期依存性のために、長いシーケンスで長い観察期間にわたって記録される。
我々はGSA(Grouped Self-Attention)とCCA(Compressed Cross-Attention)の2つの新しいモジュールを提案する。
提案モデルでは,既存の手法に匹敵する計算量と性能の低減が効果的に示された。
論文 参考訳(メタデータ) (2022-10-02T06:58:49Z) - Autoformer: Decomposition Transformers with Auto-Correlation for
Long-Term Series Forecasting [68.86835407617778]
Autoformerは、Auto-Correlation機構を備えた、新しい分解アーキテクチャである。
長期的な予測では、Autoformerは6つのベンチマークで相対的に改善され、最先端の精度が得られる。
論文 参考訳(メタデータ) (2021-06-24T13:43:43Z) - Parallel Extraction of Long-term Trends and Short-term Fluctuation
Framework for Multivariate Time Series Forecasting [14.399919351944677]
時系列には、長期傾向と短期変動という2つの特徴がある。
既存の予測手法は両者を区別しないことが多いため、予測モデルの精度は低下する。
3つの予測サブネットワークを構築し、予測すべき長期的な傾向、短期的な変動、最終的な値を予測する。
論文 参考訳(メタデータ) (2020-08-18T03:55:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。