論文の概要: A simple and effective predictive resource scaling heuristic for
large-scale cloud applications
- arxiv url: http://arxiv.org/abs/2008.01215v1
- Date: Mon, 3 Aug 2020 21:50:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 06:58:45.594712
- Title: A simple and effective predictive resource scaling heuristic for
large-scale cloud applications
- Title(参考訳): 大規模クラウドアプリケーションのためのシンプルで効果的な予測リソーススケーリングヒューリスティック
- Authors: Valentin Flunkert, Quentin Rebjock, Joel Castellon, Laurent Callot,
Tim Januschowski
- Abstract要約: クラウド環境で動作する水平スケーラブルなアプリケーションの予測自動スケーリングのための,シンプルかつ効果的なポリシを提案する。
当社のポリシでは、ワークロードの確率的予測を使用して、アプリケーションのオーナのリスク回避に依存するスケーリング決定を行います。
- 参考スコア(独自算出の注目度): 8.023369546721229
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a simple yet effective policy for the predictive auto-scaling of
horizontally scalable applications running in cloud environments, where compute
resources can only be added with a delay, and where the deployment throughput
is limited. Our policy uses a probabilistic forecast of the workload to make
scaling decisions dependent on the risk aversion of the application owner. We
show in our experiments using real-world and synthetic data that this policy
compares favorably to mathematically more sophisticated approaches as well as
to simple benchmark policies.
- Abstract(参考訳): 本稿では,クラウド環境で稼働する水平スケーラブルなアプリケーションの予測オートスケーリングに対して,計算リソースを遅延時間で追加し,デプロイメントスループットを制限した上で,シンプルかつ効果的なポリシを提案する。
当社のポリシでは、ワークロードの確率的予測を使用して、アプリケーションのオーナのリスク回避に依存するスケーリング決定を行います。
実世界および合成データを用いた実験において、このポリシーは数学的に洗練されたアプローチと単純なベンチマークポリシーとを好適に比較した。
関連論文リスト
- Enhancing Cloud-Native Resource Allocation with Probabilistic Forecasting Techniques in O-RAN [3.190069716363552]
本稿では,Open Radio Access Network (O-RAN) のクラウドネイティブな側面と,Radio App (rApp) デプロイメントオプションについて検討する。
本稿では,Deep Autoregressive Recurrent Network (DeepAR) の他の決定論的確率推定器に対する利点を示す。
論文 参考訳(メタデータ) (2024-07-19T15:04:15Z) - Uncertainty-Aware Instance Reweighting for Off-Policy Learning [63.31923483172859]
本研究では,不確実性を考慮した逆確率スコア推定器 (UIPS) を提案する。
実世界の3つのレコメンデーションデータセットを用いた実験結果から,提案したUIPS推定器の有効サンプル効率が示された。
論文 参考訳(メタデータ) (2023-03-11T11:42:26Z) - Exploration via Planning for Information about the Optimal Trajectory [67.33886176127578]
我々は,タスクと現在の知識を考慮に入れながら,探索を計画できる手法を開発した。
本手法は, 探索基準値よりも2倍少ないサンプルで, 強いポリシーを学習できることを実証する。
論文 参考訳(メタデータ) (2022-10-06T20:28:55Z) - A Meta Reinforcement Learning Approach for Predictive Autoscaling in the
Cloud [10.970391043991363]
本稿では,CPU利用の安定レベルを維持するために資源を最適に割り当てることを目的とした,エンドツーエンドのメタモデルに基づくRLアルゴリズムを提案する。
当社のアルゴリズムは,スケーリング戦略の予測可能性と精度を確保するだけでなく,スケーリング決定が変化するワークロードに高いサンプル効率で適応できるようにする。
論文 参考訳(メタデータ) (2022-05-31T13:54:04Z) - Robust Predictable Control [149.71263296079388]
提案手法は,従来の手法よりもはるかに厳密な圧縮を実現し,標準的な情報ボトルネックよりも最大5倍高い報酬が得られることを示す。
また,本手法はより堅牢で,新しいタスクをより一般化したポリシーを学習することを示す。
論文 参考訳(メタデータ) (2021-09-07T17:29:34Z) - Model-Free Learning of Optimal Deterministic Resource Allocations in
Wireless Systems via Action-Space Exploration [4.721069729610892]
本稿では,最適パラメータ化資源割り当てポリシーを効率的に学習するための,技術的基盤と拡張性のある2次元勾配法を提案する。
提案手法は, 深層ネットワークなどの一般的な普遍表現の勾配を効率よく活用するだけでなく, 低次元摂動により構築された関連するランダムネットワークサービスのゼロ階勾配近似を一貫したゼロ階勾配近似に頼っているため, 真のモデルフリーである。
論文 参考訳(メタデータ) (2021-08-23T18:26:16Z) - MUSBO: Model-based Uncertainty Regularized and Sample Efficient Batch
Optimization for Deployment Constrained Reinforcement Learning [108.79676336281211]
データ収集とオンライン学習のための新しいポリシーの継続的展開はコスト非効率か非現実的かのどちらかである。
モデルベース不確実性正規化とサンプル効率的なバッチ最適化という新しいアルゴリズム学習フレームワークを提案する。
本フレームワークは,各デプロイメントの新規で高品質なサンプルを発見し,効率的なデータ収集を実現する。
論文 参考訳(メタデータ) (2021-02-23T01:30:55Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - A Predictive Autoscaler for Elastic Batch Jobs [8.354712625979776]
Deep Learning、HPC、Sparkといった大規模なバッチジョブは、従来のオンラインサービスよりもはるかに多くの計算リソースとコストを必要とします。
顧客とオーバプロビジョンインスタンスに対して,柔軟なインターフェースを提供するための予測オートスケーラを提案する。
論文 参考訳(メタデータ) (2020-10-10T17:35:55Z) - Deployment-Efficient Reinforcement Learning via Model-Based Offline
Optimization [46.017212565714175]
本稿では,政策学習に使用される異なるデータ収集ポリシーの数を測定する,展開効率の新たな概念を提案する。
本研究では,従来よりも10~20倍少ないデータを用いてオフラインでポリシーを効果的に最適化できるモデルベースアルゴリズムBREMENを提案する。
論文 参考訳(メタデータ) (2020-06-05T19:33:19Z) - Guided Uncertainty-Aware Policy Optimization: Combining Learning and
Model-Based Strategies for Sample-Efficient Policy Learning [75.56839075060819]
従来のロボットのアプローチは、環境の正確なモデル、タスクの実行方法の詳細な説明、現在の状態を追跡するための堅牢な認識システムに依存している。
強化学習アプローチは、タスクを記述するための報酬信号だけで、生の感覚入力から直接操作することができるが、非常にサンプル非効率で脆弱である。
本研究では,ロボットの知覚・運動パイプラインにおける不正確さを克服できる一般的な手法を得るために,モデルに基づく手法の強みと学習に基づく手法の柔軟性を組み合わせる。
論文 参考訳(メタデータ) (2020-05-21T19:47:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。