論文の概要: Online Ensemble Transformer for Accurate Cloud Workload Forecasting in Predictive Auto-Scaling
- arxiv url: http://arxiv.org/abs/2508.12773v1
- Date: Mon, 18 Aug 2025 09:48:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.162601
- Title: Online Ensemble Transformer for Accurate Cloud Workload Forecasting in Predictive Auto-Scaling
- Title(参考訳): 予測オートスケーリングにおけるクラウドワークロード予測の精度向上のためのオンラインエンサンブル変換器
- Authors: Jiadong Chen, Xiao He, Hengyu Ye, Fuxin Jiang, Tieying Zhang, Jianjun Chen, Xiaofeng Gao,
- Abstract要約: 大規模自動スケーリングにおけるオンラインワークロード予測のための新しいオンラインアンサンブルモデルであるE3Formerを提案する。
我々のモデルは、単一モデルアプローチの限界を克服するために、マルチワークの予測能力を相乗化します。
本手法はByteDanceのIntelligent Horizontal Pod Auto-scaling (IHPA)プラットフォームに実装されている。
- 参考スコア(独自算出の注目度): 9.687789919349523
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the swiftly evolving domain of cloud computing, the advent of serverless systems underscores the crucial need for predictive auto-scaling systems. This necessity arises to ensure optimal resource allocation and maintain operational efficiency in inherently volatile environments. At the core of a predictive auto-scaling system is the workload forecasting model. Existing forecasting models struggle to quickly adapt to the dynamics in online workload streams and have difficulty capturing the complex periodicity brought by fine-grained, high-frequency forecasting tasks. Addressing this, we propose a novel online ensemble model, E3Former, for online workload forecasting in large-scale predictive auto-scaling. Our model synergizes the predictive capabilities of multiple subnetworks to surmount the limitations of single-model approaches, thus ensuring superior accuracy and robustness. Remarkably, it accomplishes this with a minimal increase in computational overhead, adhering to the lean operational ethos of serverless systems. Through extensive experimentation on real-world workload datasets, we establish the efficacy of our ensemble model. In online forecasting tasks, the proposed method reduces forecast error by an average of 10%, and its effectiveness is further demonstrated through a predictive auto-scaling test in the real-life online system. Currently, our method has been deployed within ByteDance's Intelligent Horizontal Pod Auto-scaling (IHPA) platform, which supports the stable operation of over 30 applications, such as Douyin E-Comerce, TouTiao, and Volcano Engine. The predictive auto-scaling capacity reaching over 600,000 CPU cores. On the basis of essentially ensuring service quality, the predictive auto-scaling system can reduce resource utilization by over 40%.
- Abstract(参考訳): クラウドコンピューティングの急速な進化の中で、サーバーレスシステムの出現は、予測自動スケーリングシステムにとって重要な必要性を浮き彫りにしている。
この必要性は、資源割り当ての最適な確保と、本質的に不安定な環境での運用効率の維持である。
予測自動スケーリングシステムの中核は、ワークロード予測モデルである。
既存の予測モデルは、オンラインのワークロードストリームのダイナミックスに迅速に適応するのに苦労し、きめ細かな高頻度予測タスクによってもたらされる複雑な周期性を捉えるのに苦労している。
そこで本研究では,大規模自動スケーリングにおけるオンラインワークロード予測のためのオンラインアンサンブルモデルであるE3Formerを提案する。
本モデルでは,複数サブネットワークの予測能力を相乗化して,単一モデルアプローチの限界を克服し,精度とロバスト性を確保する。
注目すべきは、サーバーレスシステムのリーンな運用の倫理を守りながら、計算オーバーヘッドを最小限に増やすことで、これを実現することだ。
実世界のワークロードデータセットに関する広範な実験を通じて、アンサンブルモデルの有効性を確立する。
オンライン予測タスクにおいて,提案手法は平均10%の予測誤差を低減し,実生活オンラインシステムにおける予測自動スケーリングテストにより,その効果をさらに実証する。
現在,本手法はByteDanceのIntelligent Horizontal Pod Auto-scaling (IHPA)プラットフォーム内にデプロイされており,Douyin E-Comerce,TouTiao,Volcano Engineなど30以上のアプリケーションの安定した動作をサポートする。
予測オートスケーリング能力は60,000以上のCPUコアに到達した。
サービス品質を本質的に保証することに基づいて、予測自動スケーリングシステムは、リソース使用量を40%以上削減することができる。
関連論文リスト
- Scalability Optimization in Cloud-Based AI Inference Services: Strategies for Real-Time Load Balancing and Automated Scaling [1.3689475854650441]
本研究では,クラウドAI推論サービスのための拡張性最適化フレームワークを提案する。
提案モデルは,適応負荷分布に対する強化学習と,正確な需要予測のためのディープニューラルネットワークを組み合わせたハイブリッドアプローチである。
実験の結果,提案モデルでは負荷分散効率を35倍に向上し,応答遅延を28。
論文 参考訳(メタデータ) (2025-04-16T04:00:04Z) - Efficient Motion Prediction: A Lightweight & Accurate Trajectory Prediction Model With Fast Training and Inference Speed [56.27022390372502]
我々は,1つのGPU上で数時間のトレーニングをしながら,競争力の高いベンチマーク結果を実現する,新しい効率的な動き予測モデルを提案する。
その低推論レイテンシは、特に限られたコンピューティングリソースを持つ自律アプリケーションへのデプロイに適している。
論文 参考訳(メタデータ) (2024-09-24T14:58:27Z) - Forecast-PEFT: Parameter-Efficient Fine-Tuning for Pre-trained Motion Forecasting Models [68.23649978697027]
Forecast-PEFTは、モデルのパラメータの大部分を凍結し、新しく導入されたプロンプトとアダプタの調整に集中する微調整戦略である。
実験の結果,Forecast-PEFTは動作予測タスクにおいて従来のフルチューニング手法よりも優れていた。
Forecast-FTは予測性能をさらに改善し、従来のベースライン法よりも最大9.6%向上した。
論文 参考訳(メタデータ) (2024-07-28T19:18:59Z) - OptScaler: A Collaborative Framework for Robust Autoscaling in the Cloud [10.97507717758812]
最適化モジュールを通じてプロアクティブおよびリアクティブモジュールを統合する,協調的な自動スケーリングフレームワークであるOpsScalerを提案する。
数値計算の結果,ワークロード予測モデルと協調フレームワークの優位性が示された。
論文 参考訳(メタデータ) (2023-10-26T04:38:48Z) - End-to-End Reinforcement Learning of Koopman Models for Economic Nonlinear Model Predictive Control [45.84205238554709]
本研究では, (e)NMPCの一部として最適性能を示すために, Koopman シュロゲートモデルの強化学習法を提案する。
エンドツーエンドトレーニングモデルは,(e)NMPCにおけるシステム識別を用いてトレーニングしたモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-03T10:21:53Z) - A Meta Reinforcement Learning Approach for Predictive Autoscaling in the
Cloud [10.970391043991363]
本稿では,CPU利用の安定レベルを維持するために資源を最適に割り当てることを目的とした,エンドツーエンドのメタモデルに基づくRLアルゴリズムを提案する。
当社のアルゴリズムは,スケーリング戦略の予測可能性と精度を確保するだけでなく,スケーリング決定が変化するワークロードに高いサンプル効率で適応できるようにする。
論文 参考訳(メタデータ) (2022-05-31T13:54:04Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - A Predictive Autoscaler for Elastic Batch Jobs [8.354712625979776]
Deep Learning、HPC、Sparkといった大規模なバッチジョブは、従来のオンラインサービスよりもはるかに多くの計算リソースとコストを必要とします。
顧客とオーバプロビジョンインスタンスに対して,柔軟なインターフェースを提供するための予測オートスケーラを提案する。
論文 参考訳(メタデータ) (2020-10-10T17:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。