論文の概要: Using LSTM and SARIMA Models to Forecast Cluster CPU Usage
- arxiv url: http://arxiv.org/abs/2007.08092v1
- Date: Thu, 16 Jul 2020 03:29:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 22:04:24.002292
- Title: Using LSTM and SARIMA Models to Forecast Cluster CPU Usage
- Title(参考訳): lstmとsarimaモデルによるクラスタcpu使用量の予測
- Authors: Langston Nashold, Rayan Krishnan
- Abstract要約: この研究は、1つのリソース、CPU使用量、短期的および長期的両方のタイムスケールを予測することを目指している。
これらのモデルを、短期タスクの次の1時間、長期タスクの次の3日間の使用を予測することを目的として、データポイントあたり20分に再サンプリングしたAzureデータに適用する。
SARIMAモデルはLSTMの長期予測タスクよりも優れていたが、短期的なタスクでは性能が劣った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As large scale cloud computing centers become more popular than individual
servers, predicting future resource demand need has become an important
problem. Forecasting resource need allows public cloud providers to proactively
allocate or deallocate resources for cloud services. This work seeks to predict
one resource, CPU usage, over both a short term and long term time scale.
To gain insight into the model characteristics that best support specific
tasks, we consider two vastly different architectures: the historically
relevant SARIMA model and the more modern neural network, LSTM model. We apply
these models to Azure data resampled to 20 minutes per data point with the goal
of predicting usage over the next hour for the short-term task and for the next
three days for the long-term task. The SARIMA model outperformed the LSTM for
the long term prediction task, but performed poorer on the short term task.
Furthermore, the LSTM model was more robust, whereas the SARIMA model relied on
the data meeting certain assumptions about seasonality.
- Abstract(参考訳): 大規模クラウドコンピューティングセンターが個々のサーバよりも普及するにつれ、将来のリソース需要予測は重要な問題となっている。
予測リソースの要求により、パブリッククラウドプロバイダは、クラウドサービスのリソースを積極的に割り当てたり、配置したりできる。
この研究は、短期と長期の両方の時間スケールで、ひとつのリソース、CPU使用量を予測することを目指している。
特定のタスクを最もサポートしているモデル特性を理解するために、歴史的に関連するSARIMAモデルと、より現代的なニューラルネットワークLSTMモデルという、2つの大きな異なるアーキテクチャを検討します。
我々は、これらのモデルをデータポイントあたり20分に再サンプリングしたazureデータに適用し、短期タスクでは次の時間、長期タスクでは次の3日間の使用率を予測することを目標とした。
SARIMAモデルはLSTMの長期予測タスクよりも優れていたが、短期的なタスクでは性能が劣った。
さらに、LSTMモデルはより堅牢であり、SARIMAモデルは季節性に関する特定の仮定を満たすデータに依存していた。
関連論文リスト
- Time-MoE: Billion-Scale Time Series Foundation Models with Mixture of Experts [25.503695417712997]
Time-MoEは、より大きく、より有能な基礎モデルを予測するために設計された、スケーラブルで統一されたアーキテクチャである。
Time-MoEは、予測毎にネットワークのサブセットだけを活性化することで、計算効率を向上させる。
時系列基礎モデルを24億のパラメータに拡張し,予測精度を大幅に向上させた。
論文 参考訳(メタデータ) (2024-09-24T12:42:18Z) - F-FOMAML: GNN-Enhanced Meta-Learning for Peak Period Demand Forecasting with Proxy Data [65.6499834212641]
本稿では,需要予測をメタラーニング問題として定式化し,F-FOMAMLアルゴリズムを開発した。
タスク固有のメタデータを通してドメインの類似性を考慮することにより、トレーニングタスクの数が増加するにつれて過剰なリスクが減少する一般化を改善した。
従来の最先端モデルと比較して,本手法では需要予測精度が著しく向上し,内部自動販売機データセットでは平均絶対誤差が26.24%,JD.comデータセットでは1.04%削減された。
論文 参考訳(メタデータ) (2024-06-23T21:28:50Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - 1D-CapsNet-LSTM: A Deep Learning-Based Model for Multi-Step Stock Index
Forecasting [6.05458608266581]
本研究では,多段階株価指数予測のためのLSTMネットワークに1D CapsNetを統合する可能性を検討する。
この目的のために、1D CapsNetを用いて高レベルのカプセルを生成するハイブリッド1D-CapsNet-LSTMモデルが導入された。
提案した1D-CapsNet-LSTMモデルは、ベースラインモデルを2つの重要な側面で一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-03T14:33:34Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - HigeNet: A Highly Efficient Modeling for Long Sequence Time Series
Prediction in AIOps [30.963758935255075]
本稿では,HigeNetという高効率モデルを提案し,時系列時系列の予測を行う。
モデルのトレーニング時間,資源使用量,精度は,5つの最先端競合モデルよりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2022-11-13T13:48:43Z) - Pre-training Enhanced Spatial-temporal Graph Neural Network for
Multivariate Time Series Forecasting [13.441945545904504]
スケーラブルな時系列事前学習モデル(STEP)によりSTGNNが拡張される新しいフレームワークを提案する。
具体的には、非常に長期の歴史時系列から時間パターンを効率的に学習するための事前学習モデルを設計する。
我々のフレームワークは下流のSTGNNを著しく強化することができ、事前学習モデルは時間パターンを適切にキャプチャする。
論文 参考訳(メタデータ) (2022-06-18T04:24:36Z) - Clustering Enabled Few-Shot Load Forecasting [2.0810096547938164]
エネルギー消費のわずかなショット(データポイント)を観察することで,新規利用者の負荷予測を考察する。
限られたサンプルが時間特性を利用するには不十分であるため、この作業は困難である。
本稿では,既存ユーザの履歴負荷プロファイルデータを有効クラスタリングに利用することを提案する。
論文 参考訳(メタデータ) (2022-02-16T09:09:09Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。