論文の概要: TimeBridge: Non-Stationarity Matters for Long-term Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2410.04442v1
- Date: Sat, 12 Oct 2024 15:47:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 07:25:54.547799
- Title: TimeBridge: Non-Stationarity Matters for Long-term Time Series Forecasting
- Title(参考訳): TimeBridge: 時系列予測の非定常性
- Authors: Peiyuan Liu, Beiliang Wu, Yifan Hu, Naiqi Li, Tao Dai, Jigang Bao, Shu-tao Xia,
- Abstract要約: TimeBridgeは、非定常性と依存性モデリングの間のギャップを埋めるために設計された新しいフレームワークである。
TimeBridgeは、短期予測と長期予測の両方において、最先端のパフォーマンスを一貫して達成する。
- 参考スコア(独自算出の注目度): 49.6208017412376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-stationarity poses significant challenges for multivariate time series forecasting due to the inherent short-term fluctuations and long-term trends that can lead to spurious regressions or obscure essential long-term relationships. Most existing methods either eliminate or retain non-stationarity without adequately addressing its distinct impacts on short-term and long-term modeling. Eliminating non-stationarity is essential for avoiding spurious regressions and capturing local dependencies in short-term modeling, while preserving it is crucial for revealing long-term cointegration across variates. In this paper, we propose TimeBridge, a novel framework designed to bridge the gap between non-stationarity and dependency modeling in long-term time series forecasting. By segmenting input series into smaller patches, TimeBridge applies Integrated Attention to mitigate short-term non-stationarity and capture stable dependencies within each variate, while Cointegrated Attention preserves non-stationarity to model long-term cointegration across variates. Extensive experiments show that TimeBridge consistently achieves state-of-the-art performance in both short-term and long-term forecasting. Additionally, TimeBridge demonstrates exceptional performance in financial forecasting on the CSI 500 and S&P 500 indices, further validating its robustness and effectiveness. Code is available at \url{https://github.com/Hank0626/TimeBridge}.
- Abstract(参考訳): 非定常性は、本質的に短期的な変動と、急激な回帰や不明瞭な長期的関係をもたらす可能性のある長期的傾向のために、多変量時系列予測に重大な課題を生じさせる。
既存のほとんどの手法は、短期および長期のモデリングにおいて、その明確な影響を適切に解決することなく、非定常性を排除または維持する。
非定常性を排除することは、急激な回帰を避け、短期的なモデリングにおいて局所的な依存を捉えるのに不可欠である。
本稿では,時系列予測における非定常性と依存性モデリングのギャップを埋める新しいフレームワークであるTimeBridgeを提案する。
入力シリーズを小さなパッチに分割することで、TimeBridgeは短期的な非定常性を緩和し、各変数内の安定した依存関係をキャプチャするためにIntegrated Attentionを適用する。
大規模な実験により、TimeBridgeは短期および長期の予測において、常に最先端のパフォーマンスを達成することが示された。
さらに、TimeBridgeはCSI 500およびS&P 500指数の財務予測において例外的なパフォーマンスを示し、その堅牢性と有効性を検証する。
コードは \url{https://github.com/Hank0626/TimeBridge} で入手できる。
関連論文リスト
- Disentangling Long-Short Term State Under Unknown Interventions for Online Time Series Forecasting [21.059809961310123]
オンラインシナリオにおける時系列予測手法の現状
データが順次到着した場合には、短期的な変更を適用しながら、長期的依存を維持することは困難である。
本稿では,オンライン時系列予測のための長期的・短期的状態を切り離すための一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2025-02-18T07:31:04Z) - BRATI: Bidirectional Recurrent Attention for Time-Series Imputation [0.14999444543328289]
時系列分析におけるデータの欠落は、ダウンストリームアプリケーションの信頼性に影響を及ぼす、重大な課題を引き起こす。
本稿では,多変量時系列計算のための新しい深層学習モデルであるBRATIを紹介する。
BRATIは時間的依存を処理し、長い時間的水平線と短い時間的水平線をまたいだ特徴相関を処理し、その逆の時間的方向で動作する2つの計算ブロックを利用する。
論文 参考訳(メタデータ) (2025-01-09T17:50:56Z) - Breaking the Context Bottleneck on Long Time Series Forecasting [6.36010639533526]
長期の時系列予測は、経済、エネルギー、輸送における計画と意思決定に不可欠である。
最近の進歩によりこれらのモデルの効率は向上したが、より長いシーケンスを効果的に活用することの難しさは持続している。
長いシーケンスの効率的かつ効率的な処理を実現するために,Logsparse Decomposable Multiscaling (LDM) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-21T10:29:34Z) - Multiscale Representation Enhanced Temporal Flow Fusion Model for Long-Term Workload Forecasting [19.426131129034115]
本稿では,自己指導型マルチスケール表現学習を利用して,長期および短期のワークロードパターンを抽出する新しいフレームワークを提案する。
長期履歴はマルチスケール表現によって符号化され、短期観測は時流融合によってモデル化される。
論文 参考訳(メタデータ) (2024-07-29T04:42:18Z) - Learning Graph Structures and Uncertainty for Accurate and Calibrated Time-series Forecasting [65.40983982856056]
本稿では,時系列間の相関を利用して時系列間の構造を学習し,精度の高い正確な予測を行うSTOICを紹介する。
幅広いベンチマークデータセットに対して、STOICは16%の精度とキャリブレーションのよい予測を提供する。
論文 参考訳(メタデータ) (2024-07-02T20:14:32Z) - Self-Supervised Contrastive Learning for Long-term Forecasting [41.11757636744812]
長期予測は、時間とメモリの複雑さによる固有の課題を示す。
スライドウィンドウに頼って長いシーケンスを処理している既存の手法は、長期の変動を効果的に捉えるのに苦労している。
コントラスト学習と拡張分解アーキテクチャを用いて,この制限を克服する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-03T04:32:34Z) - Gated Recurrent Neural Networks with Weighted Time-Delay Feedback [59.125047512495456]
重み付き時間遅延フィードバック機構を備えた新しいゲートリカレントユニット(GRU)を導入する。
我々は、$tau$-GRUが、最先端のリカレントユニットやゲート型リカレントアーキテクチャよりも早く収束し、より一般化できることを示します。
論文 参考訳(メタデータ) (2022-12-01T02:26:34Z) - Grouped self-attention mechanism for a memory-efficient Transformer [64.0125322353281]
天気予報、電力消費、株式市場などの現実世界のタスクには、時間とともに変化するデータの予測が含まれる。
時系列データは通常、その周期的特性と時間的長期依存性のために、長いシーケンスで長い観察期間にわたって記録される。
我々はGSA(Grouped Self-Attention)とCCA(Compressed Cross-Attention)の2つの新しいモジュールを提案する。
提案モデルでは,既存の手法に匹敵する計算量と性能の低減が効果的に示された。
論文 参考訳(メタデータ) (2022-10-02T06:58:49Z) - Autoformer: Decomposition Transformers with Auto-Correlation for
Long-Term Series Forecasting [68.86835407617778]
Autoformerは、Auto-Correlation機構を備えた、新しい分解アーキテクチャである。
長期的な予測では、Autoformerは6つのベンチマークで相対的に改善され、最先端の精度が得られる。
論文 参考訳(メタデータ) (2021-06-24T13:43:43Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。