論文の概要: Multiscale Representation Enhanced Temporal Flow Fusion Model for Long-Term Workload Forecasting
- arxiv url: http://arxiv.org/abs/2407.19697v2
- Date: Mon, 19 Aug 2024 02:13:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 01:49:20.587881
- Title: Multiscale Representation Enhanced Temporal Flow Fusion Model for Long-Term Workload Forecasting
- Title(参考訳): 長期作業負荷予測のためのマルチスケール表現強化時流融合モデル
- Authors: Shiyu Wang, Zhixuan Chu, Yinbo Sun, Yu Liu, Yuliang Guo, Yang Chen, Huiyang Jian, Lintao Ma, Xingyu Lu, Jun Zhou,
- Abstract要約: 本稿では,自己指導型マルチスケール表現学習を利用して,長期および短期のワークロードパターンを抽出する新しいフレームワークを提案する。
長期履歴はマルチスケール表現によって符号化され、短期観測は時流融合によってモデル化される。
- 参考スコア(独自算出の注目度): 19.426131129034115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate workload forecasting is critical for efficient resource management in cloud computing systems, enabling effective scheduling and autoscaling. Despite recent advances with transformer-based forecasting models, challenges remain due to the non-stationary, nonlinear characteristics of workload time series and the long-term dependencies. In particular, inconsistent performance between long-term history and near-term forecasts hinders long-range predictions. This paper proposes a novel framework leveraging self-supervised multiscale representation learning to capture both long-term and near-term workload patterns. The long-term history is encoded through multiscale representations while the near-term observations are modeled via temporal flow fusion. These representations of different scales are fused using an attention mechanism and characterized with normalizing flows to handle non-Gaussian/non-linear distributions of time series. Extensive experiments on 9 benchmarks demonstrate superiority over existing methods.
- Abstract(参考訳): 正確なワークロード予測は、クラウドコンピューティングシステムにおける効率的なリソース管理に不可欠であり、効率的なスケジューリングと自動スケーリングを可能にする。
トランスフォーマーベースの予測モデルによる最近の進歩にもかかわらず、ワークロード時系列の非定常的、非線形特性と長期的依存関係による課題が残っている。
特に、長期履歴と短期予測の矛盾した性能は、長距離予測を妨げる。
本稿では,自己指導型マルチスケール表現学習を利用して,長期および短期のワークロードパターンを抽出する新しいフレームワークを提案する。
長期履歴はマルチスケール表現によって符号化され、短期観測は時流融合によってモデル化される。
これらの異なるスケールの表現は、注意機構を用いて融合され、時系列の非ガウス的/非線形分布を扱うための正規化フローが特徴である。
9つのベンチマークの大規模な実験は、既存の方法よりも優れていることを示している。
関連論文リスト
- Introducing Spectral Attention for Long-Range Dependency in Time Series Forecasting [36.577411683455786]
最近の線形および変圧器ベースの予測器は時系列予測において優れた性能を示している。
時系列データにおける長距離依存関係を効果的に扱うことができないという点で制約されている。
本稿では,試料間の時間的相関を保った高速かつ効果的なスペクトル注意機構を提案する。
論文 参考訳(メタデータ) (2024-10-28T06:17:20Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための生成変換器Timer-XLを提案する。
Timer-XLは、統一されたアプローチにより、挑戦的な予測ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - TimeBridge: Non-Stationarity Matters for Long-term Time Series Forecasting [49.6208017412376]
TimeBridgeは、非定常性と依存性モデリングの間のギャップを埋めるために設計された新しいフレームワークである。
TimeBridgeは、短期予測と長期予測の両方において、最先端のパフォーマンスを一貫して達成する。
論文 参考訳(メタデータ) (2024-10-06T10:41:03Z) - Integration of Mamba and Transformer -- MAT for Long-Short Range Time Series Forecasting with Application to Weather Dynamics [7.745945701278489]
長い時間範囲の時系列予測は、長期にわたる将来の傾向やパターンを予測するのに不可欠である。
Transformersのようなディープラーニングモデルは、時系列予測の進歩に大きく貢献している。
本稿では,MambaモデルとTransformerモデルの長所と短所について検討する。
論文 参考訳(メタデータ) (2024-09-13T04:23:54Z) - Learning from Polar Representation: An Extreme-Adaptive Model for
Long-Term Time Series Forecasting [10.892801642895904]
本稿では,距離重み付き自己正規化ニューラルネットワーク(DAN)を提案する。これは極性表現学習によって強化されたストラムフローの長距離予測のための新しい極性適応モデルである。
実生活における4つの水文流れデータセットにおいて、DANは、最先端の水文時系列予測法と長期時系列予測のための一般的な方法の両方を著しく上回っていることを実証した。
論文 参考訳(メタデータ) (2023-12-14T09:16:01Z) - Stecformer: Spatio-temporal Encoding Cascaded Transformer for
Multivariate Long-term Time Series Forecasting [11.021398675773055]
本稿では,特徴抽出とターゲット予測の観点から,問題の完全な解決法を提案する。
抽出のために,半適応グラフを含む効率的な時間的符号化抽出器を設計し,十分な時間的情報を取得する。
予測のために、異なる間隔間の相関を強化するためにカスケードデ予測器(CDP)を提案する。
論文 参考訳(メタデータ) (2023-05-25T13:00:46Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Autoformer: Decomposition Transformers with Auto-Correlation for
Long-Term Series Forecasting [68.86835407617778]
Autoformerは、Auto-Correlation機構を備えた、新しい分解アーキテクチャである。
長期的な予測では、Autoformerは6つのベンチマークで相対的に改善され、最先端の精度が得られる。
論文 参考訳(メタデータ) (2021-06-24T13:43:43Z) - Temporal Latent Auto-Encoder: A Method for Probabilistic Multivariate
Time Series Forecasting [4.131842516813833]
時間系列の非線形ファクタリゼーションを可能にする新しい時間的潜時オートエンコーダ法を提案する。
確率的潜時空間モデルにより、入力系列の複雑な分布はデコーダを介してモデル化される。
我々のモデルは、多くの一般的な多変量データセット上で最先端のパフォーマンスを達成し、いくつかの標準メトリクスに対して最大50%のゲインを得られることがある。
論文 参考訳(メタデータ) (2021-01-25T22:29:40Z) - Stochastically forced ensemble dynamic mode decomposition for
forecasting and analysis of near-periodic systems [65.44033635330604]
本稿では,観測力学を強制線形系としてモデル化した新しい負荷予測手法を提案する。
固有線型力学の利用は、解釈可能性やパーシモニーの観点から、多くの望ましい性質を提供することを示す。
電力グリッドからの負荷データを用いたテストケースの結果が提示される。
論文 参考訳(メタデータ) (2020-10-08T20:25:52Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。