論文の概要: Online Capacity Scaling Augmented With Unreliable Machine Learning
Predictions
- arxiv url: http://arxiv.org/abs/2101.12160v2
- Date: Wed, 20 Apr 2022 13:58:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 11:31:30.084773
- Title: Online Capacity Scaling Augmented With Unreliable Machine Learning
Predictions
- Title(参考訳): 信頼性の低い機械学習予測を備えたオンライン容量スケーリング
- Authors: Daan Rutten, Debankur Mukherjee
- Abstract要約: 我々は,ブラックボックスの機械学習予測にアクセスできるABCS(Adaptive Balanced Capacity Scaling)と呼ばれる新しいアルゴリズムを提案する。
ABCSは予測に適応することを目的としており、ワークロードの予測不可能な急上昇に対して堅牢である。
特に、予測が正確であればABCSが$(varepsilon)$-competitiveであることを証明するが、予測が完全に不正確な場合でも一様有界競争比を持つ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern data centers suffer from immense power consumption. As a result, data
center operators have heavily invested in capacity scaling solutions, which
dynamically deactivate servers if the demand is low and activate them again
when the workload increases. We analyze a continuous-time model for capacity
scaling, where the goal is to minimize the weighted sum of flow-time, switching
cost, and power consumption in an online fashion. We propose a novel algorithm,
called Adaptive Balanced Capacity Scaling (ABCS), that has access to black-box
machine learning predictions. ABCS aims to adapt to the predictions and is also
robust against unpredictable surges in the workload. In particular, we prove
that ABCS is $(1+\varepsilon)$-competitive if the predictions are accurate, and
yet, it has a uniformly bounded competitive ratio even if the predictions are
completely inaccurate. Finally, we investigate the performance of this
algorithm on a real-world dataset and carry out extensive numerical
experiments, which positively support the theoretical results.
- Abstract(参考訳): 現代のデータセンターは膨大な電力消費に苦しんでいる。
その結果、データセンタオペレータはキャパシティスケーリングソリューションに多大な投資を行い、要求が低ければサーバを動的に非活性化し、ワークロードが増加すると再び起動する。
我々は,キャパシティスケーリングのための連続時間モデルを分析し,フロー時間,スイッチングコスト,電力消費量の重み付け和を最小化することを目的としている。
我々は,ブラックボックスの機械学習予測にアクセスできるABCS(Adaptive Balanced Capacity Scaling)と呼ばれる新しいアルゴリズムを提案する。
ABCSは予測に適応することを目的としており、ワークロードの予測不可能な急増に対して堅牢である。
特に、予測が正確であればabcsが$(1+\varepsilon)$-競合であることを証明するが、それでも予測が完全に不正確であっても一様に有界な競合比を持つ。
最後に,本アルゴリズムの性能を実世界のデータセット上で検証し,理論結果を肯定的に支持する広範な数値実験を行う。
関連論文リスト
- A Dynamical Model of Neural Scaling Laws [79.59705237659547]
ネットワークトレーニングと一般化の解決可能なモデルとして,勾配降下で訓練されたランダムな特徴モデルを分析する。
我々の理論は、データの繰り返し再利用により、トレーニングとテスト損失のギャップが徐々に増大することを示している。
論文 参考訳(メタデータ) (2024-02-02T01:41:38Z) - PePNet: A Periodicity-Perceived Workload Prediction Network Supporting Rare Occurrence of Heavy Workload [11.93843096959306]
クラウドサーバのワークロードは非常に可変的であり、時には重いワークロードがバーストする。
ワークロード予測には統計手法とニューラルネットベースの方法の2つのカテゴリがある。
本稿では,特に負荷予測の精度を向上させるため,PePNetを提案する。
論文 参考訳(メタデータ) (2023-07-11T07:56:27Z) - Boosted Dynamic Neural Networks [53.559833501288146]
典型的なEDNNは、ネットワークバックボーンの異なる層に複数の予測ヘッドを持つ。
モデルを最適化するために、これらの予測ヘッドとネットワークバックボーンは、トレーニングデータのバッチ毎にトレーニングされる。
トレーニングと2つのフェーズでのインプットの異なるテストは、トレーニングとデータ分散のテストのミスマッチを引き起こす。
EDNNを勾配強化にインスパイアされた付加モデルとして定式化し、モデルを効果的に最適化するための複数のトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-11-30T04:23:12Z) - Non-Clairvoyant Scheduling with Predictions Revisited [77.86290991564829]
非論理的スケジューリングでは、優先度不明な処理条件でジョブをスケジューリングするためのオンライン戦略を見つけることが課題である。
我々はこのよく研究された問題を、アルゴリズム設計に(信頼できない)予測を統合する、最近人気の高い学習強化された設定で再検討する。
これらの予測には所望の特性があり, 高い性能保証を有するアルゴリズムと同様に, 自然な誤差測定が可能であることを示す。
論文 参考訳(メタデータ) (2022-02-21T13:18:11Z) - A Novel Prediction Setup for Online Speed-Scaling [3.3440413258080577]
アルゴリズムを設計(スケジュール)する際にエネルギー的考慮を組み込むのが基本である。
本稿では,古典的,期限ベース,オンラインの高速スケーリング問題に対して,両世界の長所を把握しようと試みる。
論文 参考訳(メタデータ) (2021-12-06T14:46:20Z) - Learning to Predict Trustworthiness with Steep Slope Loss [69.40817968905495]
本研究では,現実の大規模データセットにおける信頼性の予測問題について検討する。
我々は、先行技術損失関数で訓練された信頼性予測器が、正しい予測と誤った予測の両方を信頼に値するものとみなす傾向があることを観察する。
そこで我々は,2つのスライド状の曲線による不正確な予測から,特徴w.r.t.正しい予測を分離する,新たな急勾配損失を提案する。
論文 参考訳(メタデータ) (2021-09-30T19:19:09Z) - Online Bin Packing with Predictions [11.306212771477645]
様々なサイズの項目の列を、一様容量のビンの最小限の個数に配置しなければならない問題について、オンライン版について検討する。
我々は、一貫性(すなわち、予測誤差を仮定しない競争比)と堅牢性(すなわち、逆誤差の下での競争比)の間の効率的なトレードオフを持つオンラインアルゴリズムを設計し、分析する。
これは、学習可能な予測の現実的な設定において、競争分析の下でのオンラインビンパッキングに関する最初の理論的、実験的研究である。
論文 参考訳(メタデータ) (2021-02-05T17:32:52Z) - Learning Augmented Energy Minimization via Speed Scaling [11.47280189685449]
本稿では,従来のオンラインのスピードスケーリング問題において,未来に関する機械学習予測を自然に統合する手法について検討する。
学習強化オンラインアルゴリズムの最近の研究に触発されて,予測をブラックボックス方式で組み込んだアルゴリズムを提案し,精度の高いオンラインアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-22T11:58:01Z) - Optimal Robustness-Consistency Trade-offs for Learning-Augmented Online
Algorithms [85.97516436641533]
機械学習予測を取り入れたオンラインアルゴリズムの性能向上の課題について検討する。
目標は、一貫性と堅牢性の両方を備えたアルゴリズムを設計することだ。
機械学習予測を用いた競合解析のための非自明な下界の最初のセットを提供する。
論文 参考訳(メタデータ) (2020-10-22T04:51:01Z) - A Predictive Autoscaler for Elastic Batch Jobs [8.354712625979776]
Deep Learning、HPC、Sparkといった大規模なバッチジョブは、従来のオンラインサービスよりもはるかに多くの計算リソースとコストを必要とします。
顧客とオーバプロビジョンインスタンスに対して,柔軟なインターフェースを提供するための予測オートスケーラを提案する。
論文 参考訳(メタデータ) (2020-10-10T17:35:55Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。