論文の概要: PROMPT: Learning Dynamic Resource Allocation Policies for Network
Applications
- arxiv url: http://arxiv.org/abs/2201.07916v2
- Date: Sat, 25 Mar 2023 01:07:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 03:49:36.348915
- Title: PROMPT: Learning Dynamic Resource Allocation Policies for Network
Applications
- Title(参考訳): PROMPT: ネットワークアプリケーションのための動的リソース割り当てポリシーの学習
- Authors: Drew Penney, Bin Li, Jaroslaw Sydir, Lizhong Chen, Charlie Tai, Stefan
Lee, Eoin Walsh, Thomas Long
- Abstract要約: 本稿では、プロアクティブな予測を用いて強化学習コントローラを誘導する新しいリソース割り当てフレームワークPROMPTを提案する。
本稿では,PROMPTが4.2倍少ない違反を発生させ,政策違反の深刻度を12.7倍に低減し,最善を尽くした作業負荷性能を向上し,先行作業よりも全体的な電力効率を向上することを示す。
- 参考スコア(独自算出の注目度): 16.812611987082082
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A growing number of service providers are exploring methods to improve server
utilization and reduce power consumption by co-scheduling high-priority
latency-critical workloads with best-effort workloads. This practice requires
strict resource allocation between workloads to reduce contention and maintain
Quality-of-Service (QoS) guarantees. Prior work demonstrated promising
opportunities to dynamically allocate resources based on workload demand, but
may fail to meet QoS objectives in more stringent operating environments due to
the presence of resource allocation cliffs, transient fluctuations in workload
performance, and rapidly changing resource demand. We therefore propose PROMPT,
a novel resource allocation framework using proactive QoS prediction to guide a
reinforcement learning controller. PROMPT enables more precise resource
optimization, more consistent handling of transient behaviors, and more robust
generalization when co-scheduling new best-effort workloads not encountered
during policy training. Evaluation shows that the proposed method incurs 4.2x
fewer QoS violations, reduces severity of QoS violations by 12.7x, improves
best-effort workload performance, and improves overall power efficiency over
prior work.
- Abstract(参考訳): 多くのサービスプロバイダが、最高のワークロードで高優先度のレイテンシクリティカルなワークロードをスケジュールすることで、サーバの利用を改善し、消費電力を削減する方法を模索している。
このプラクティスでは、競合を減らし、qos(quality-of-service)の保証を維持するために、ワークロード間の厳格なリソース割り当てが必要です。
以前の作業は、ワークロード要求に基づいてリソースを動的に割り当てる有望な機会を示したが、リソース割り当ての崖、ワークロードパフォーマンスの過渡的変動、リソース需要の急激な変化などにより、より厳密な運用環境でqosの目標を満たせなかった可能性がある。
そこで本研究では,プロアクティブqos予測を用いた新しい資源割当フレームワークであるprompiveを提案する。
PROMPTは、より正確なリソース最適化、過渡的な振る舞いのより一貫性のある処理、ポリシートレーニング中に遭遇しない新しいベストプラクティスワークロードを共スケジューリングする場合のより堅牢な一般化を可能にする。
評価の結果,提案手法はQoS違反を4.2倍減らし,QoS違反の深刻度を12.7倍に低減し,作業負荷性能を向上し,作業前よりも全体の電力効率を向上させる。
関連論文リスト
- Meta-RTL: Reinforcement-Based Meta-Transfer Learning for Low-Resource Commonsense Reasoning [61.8360232713375]
低リソースコモンセンス推論のための強化型マルチソースメタトランスファー学習フレームワーク(Meta-RTL)を提案する。
本稿では,メタトランスファー学習において,対象タスクに対するタスクの寄与を動的に推定する手法を提案する。
実験の結果,Meta-RTLは,強いベースラインと以前のタスク選択戦略を大幅に上回ることがわかった。
論文 参考訳(メタデータ) (2024-09-27T18:22:22Z) - Reinforcement Learning-Based Adaptive Load Balancing for Dynamic Cloud Environments [0.0]
これらの課題に対処するために,Reinforcement Learning (RL) を用いた適応型ロードバランシングフレームワークを提案する。
我々のフレームワークは、タスクを動的に再配置し、レイテンシを最小化し、サーバ間のリソース利用のバランスを確保するように設計されています。
実験の結果,提案したRLベースのロードバランサは,応答時間,資源利用量,ワークロードの変化に対する適応性などの観点から,従来のアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2024-09-07T19:40:48Z) - Diffusion-based Reinforcement Learning via Q-weighted Variational Policy Optimization [55.97310586039358]
拡散モデルは強化学習(Reinforcement Learning, RL)において、その強力な表現力と多モード性に対して広く注目を集めている。
モデルなし拡散に基づくオンラインRLアルゴリズムQ-weighted Variational Policy Optimization (QVPO)を提案する。
具体的には、ある条件下でのオンラインRLにおける政策目標の厳密な下限を証明できるQ重み付き変動損失を導入する。
また,オンラインインタラクションにおける拡散ポリシのばらつきを低減し,サンプル効率を向上させるための効率的な行動ポリシーも開発している。
論文 参考訳(メタデータ) (2024-05-25T10:45:46Z) - Multi-Level ML Based Burst-Aware Autoscaling for SLO Assurance and Cost
Efficiency [3.5624365288866007]
本稿では、複雑なワークロード下でコンテナ化されたクラウドサービスやアプリケーションのためのBurst-Aware AutoscalingフレームワークであるBAScalerを紹介します。
BAScalerには、予測可能な周期的なワークロードスパイクと実際のバーストを区別する、予測に基づく新しいバースト検出機構が組み込まれている。
論文 参考訳(メタデータ) (2024-02-20T12:28:25Z) - RAPID: Enabling Fast Online Policy Learning in Dynamic Public Cloud
Environments [7.825552412435501]
本研究では,動的運用環境における資源割当ポリシ学習の高速化を目的とした新しいフレームワークを提案する。
我々のフレームワークは、従来の最先端の時間と比較して、数分で安定したリソース割り当てポリシーを学習できることを示します。
論文 参考訳(メタデータ) (2023-04-10T18:04:39Z) - Guaranteed Dynamic Scheduling of Ultra-Reliable Low-Latency Traffic via
Conformal Prediction [72.59079526765487]
アップリンクにおける超信頼性・低遅延トラフィック(URLLC)の動的スケジューリングは、既存のサービスの効率を大幅に向上させることができる。
主な課題は、URLLCパケット生成のプロセスにおける不確実性である。
本稿では,URLLC トラフィック予測器の品質に関わらず,信頼性と遅延を保証した新しい URLLC パケットスケジューラを提案する。
論文 参考訳(メタデータ) (2023-02-15T14:09:55Z) - Actively Learning Costly Reward Functions for Reinforcement Learning [56.34005280792013]
複雑な実世界の環境でエージェントを訓練することは、桁違いに高速であることを示す。
強化学習の手法を新しい領域に適用することにより、興味深く非自明な解を見つけることができることを示す。
論文 参考訳(メタデータ) (2022-11-23T19:17:20Z) - Optimal Resource Allocation for Serverless Queries [8.59568779761598]
以前の作業では、リソース割り当てと実行時の積極的なトレードオフを無視しながら、ピークアロケーションの予測に重点を置いていた。
本稿では,新しいクエリと過去のクエリの両方に対して,アグレッシブなトレードオフでパフォーマンスを予測できる最適なリソース割り当てシステムを提案する。
論文 参考訳(メタデータ) (2021-07-19T02:55:48Z) - Coordinated Online Learning for Multi-Agent Systems with Coupled
Constraints and Perturbed Utility Observations [91.02019381927236]
本研究では, 資源制約を満たすため, エージェントを安定な集団状態へ誘導する新しい手法を提案する。
提案手法は,ゲームラグランジアンの拡張によるリソース負荷に基づく分散リソース価格設定手法である。
論文 参考訳(メタデータ) (2020-10-21T10:11:17Z) - ReLeaSER: A Reinforcement Learning Strategy for Optimizing Utilization
Of Ephemeral Cloud Resources [2.205500582481277]
本稿では,クラウド上での短命資源の利用を最適化するための強化学習戦略を提案する。
私たちのソリューションはSLA違反の罰則を平均2.7倍、最大3.4倍に大幅に削減します。
またCPの貯蓄率を平均で27.6%、最大で43.6%向上させる。
論文 参考訳(メタデータ) (2020-09-23T15:19:28Z) - Pollux: Co-adaptive Cluster Scheduling for Goodput-Optimized Deep
Learning [61.29990368322931]
Polluxは、相互依存要因を適応的に最適化することで、ディープラーニング(DL)クラスタのスケジューリング性能を改善する。
Polluxは、最先端のDLスケジューラと比較して、平均的なジョブ完了時間を37-50%削減する。
論文 参考訳(メタデータ) (2020-08-27T16:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。