論文の概要: PROMPT: Learning Dynamic Resource Allocation Policies for Edge-Network
Applications
- arxiv url: http://arxiv.org/abs/2201.07916v1
- Date: Wed, 19 Jan 2022 23:34:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 14:59:49.482474
- Title: PROMPT: Learning Dynamic Resource Allocation Policies for Edge-Network
Applications
- Title(参考訳): PROMPT:エッジネットワークアプリケーションのための動的リソース割り当てポリシーの学習
- Authors: Drew Penney, Bin Li, Jaroslaw Sydir, Charlie Tai, Eoin Walsh, Thomas
Long, Stefan Lee, Lizhong Chen
- Abstract要約: 本稿では,プロアクティブな予測に基づく動的資源配分のための新しいフレームワークを提案する。
提案手法は, 違反率を4.3倍に抑え, 違反の深刻度を3.7倍に低減し, 作業負荷性能を向上し, 従来よりも全体の電力効率を向上することを示す。
- 参考スコア(独自算出の注目度): 16.812611987082082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A growing number of service providers are exploring methods to improve server
utilization, reduce power consumption, and reduce total cost of ownership by
co-scheduling high-priority latency-critical workloads with best-effort
workloads. This practice requires strict resource allocation between workloads
to reduce resource contention and maintain Quality of Service (QoS) guarantees.
Prior resource allocation works have been shown to improve server utilization
under ideal circumstances, yet often compromise QoS guarantees or fail to find
valid resource allocations in more dynamic operating environments. Further,
prior works are fundamentally reliant upon QoS measurements that can, in
practice, exhibit significant transient fluctuations, thus stable control
behavior cannot be reliably achieved. In this paper, we propose a novel
framework for dynamic resource allocation based on proactive QoS prediction.
These predictions help guide a reinforcement-learning-based resource controller
towards optimal resource allocations while avoiding transient QoS violations
due to fluctuating workload demands. Evaluation shows that the proposed method
incurs 4.3x fewer QoS violations, reduces severity of QoS violations by 3.7x,
improves best-effort workload performance, and improves overall power
efficiency compared with prior work.
- Abstract(参考訳): サーバの利用を改善し、消費電力を削減し、高優先度のレイテンシクリティカルなワークロードとベストエフォートなワークロードを共同でスケジュールすることで、総所有コストを削減する方法を模索しているサービスプロバイダが増えている。
このプラクティスでは、リソース競合を低減し、Quality of Service(QoS)の保証を維持するために、ワークロード間のリソース割り当てを厳格に行う必要があります。
事前のリソース割当作業は理想的な状況下でサーバの利用を改善することが示されているが、よりダイナミックな運用環境でqosの保証を破ったり、有効なリソース割当を見つけられなかったりすることが多い。
さらに、先行研究はQoS測定に基本的に依存しており、実際にかなりの過渡的な変動を示すことができるため、安定した制御挙動は確実に達成できない。
本稿では,アクティブなqos予測に基づく動的資源割当のための新しいフレームワークを提案する。
これらの予測は、ワークロードの変動による一時的なQoS違反を避けながら、強化学習ベースのリソースコントローラを最適なリソース割り当てへと導くのに役立つ。
評価の結果,提案手法はQoS違反を4.3倍減らし,QoS違反の深刻度を3.7倍に低減し,作業負荷性能を向上し,従来よりも全体的な電力効率を向上させる。
関連論文リスト
- AI-Driven Resource Allocation Framework for Microservices in Hybrid Cloud Platforms [1.03590082373586]
本稿では,ハイブリッドクラウドプラットフォームにおけるリソース割り当てのためのAI駆動型フレームワークを提案する。
このフレームワークは、コスト削減と性能向上のために強化学習(RL)ベースのリソース利用最適化を採用している。
論文 参考訳(メタデータ) (2024-12-03T17:41:08Z) - Topology-aware Preemptive Scheduling for Co-located LLM Workloads [7.240168647854797]
我々は,ハイブリッドワークロードのスケジューリングのための微粒なトポロジ認識手法を開発した。
本手法は, プリエンプションの効率を大幅に向上し, LLMワークロードのスケジュール性能を55%向上させる。
論文 参考訳(メタデータ) (2024-11-18T13:26:09Z) - Meta-RTL: Reinforcement-Based Meta-Transfer Learning for Low-Resource Commonsense Reasoning [61.8360232713375]
低リソースコモンセンス推論のための強化型マルチソースメタトランスファー学習フレームワーク(Meta-RTL)を提案する。
本稿では,メタトランスファー学習において,対象タスクに対するタスクの寄与を動的に推定する手法を提案する。
実験の結果,Meta-RTLは,強いベースラインと以前のタスク選択戦略を大幅に上回ることがわかった。
論文 参考訳(メタデータ) (2024-09-27T18:22:22Z) - Reinforcement Learning-Based Adaptive Load Balancing for Dynamic Cloud Environments [0.0]
これらの課題に対処するために,Reinforcement Learning (RL) を用いた適応型ロードバランシングフレームワークを提案する。
我々のフレームワークは、タスクを動的に再配置し、レイテンシを最小化し、サーバ間のリソース利用のバランスを確保するように設計されています。
実験の結果,提案したRLベースのロードバランサは,応答時間,資源利用量,ワークロードの変化に対する適応性などの観点から,従来のアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2024-09-07T19:40:48Z) - Diffusion-based Reinforcement Learning via Q-weighted Variational Policy Optimization [55.97310586039358]
拡散モデルは強化学習(Reinforcement Learning, RL)において、その強力な表現力と多モード性に対して広く注目を集めている。
モデルなし拡散に基づくオンラインRLアルゴリズムQ-weighted Variational Policy Optimization (QVPO)を提案する。
具体的には、ある条件下でのオンラインRLにおける政策目標の厳密な下限を証明できるQ重み付き変動損失を導入する。
また,オンラインインタラクションにおける拡散ポリシのばらつきを低減し,サンプル効率を向上させるための効率的な行動ポリシーも開発している。
論文 参考訳(メタデータ) (2024-05-25T10:45:46Z) - Multi-Level ML Based Burst-Aware Autoscaling for SLO Assurance and Cost
Efficiency [3.5624365288866007]
本稿では、複雑なワークロード下でコンテナ化されたクラウドサービスやアプリケーションのためのBurst-Aware AutoscalingフレームワークであるBAScalerを紹介します。
BAScalerには、予測可能な周期的なワークロードスパイクと実際のバーストを区別する、予測に基づく新しいバースト検出機構が組み込まれている。
論文 参考訳(メタデータ) (2024-02-20T12:28:25Z) - RAPID: Enabling Fast Online Policy Learning in Dynamic Public Cloud
Environments [7.825552412435501]
本研究では,動的運用環境における資源割当ポリシ学習の高速化を目的とした新しいフレームワークを提案する。
我々のフレームワークは、従来の最先端の時間と比較して、数分で安定したリソース割り当てポリシーを学習できることを示します。
論文 参考訳(メタデータ) (2023-04-10T18:04:39Z) - Guaranteed Dynamic Scheduling of Ultra-Reliable Low-Latency Traffic via
Conformal Prediction [72.59079526765487]
アップリンクにおける超信頼性・低遅延トラフィック(URLLC)の動的スケジューリングは、既存のサービスの効率を大幅に向上させることができる。
主な課題は、URLLCパケット生成のプロセスにおける不確実性である。
本稿では,URLLC トラフィック予測器の品質に関わらず,信頼性と遅延を保証した新しい URLLC パケットスケジューラを提案する。
論文 参考訳(メタデータ) (2023-02-15T14:09:55Z) - Actively Learning Costly Reward Functions for Reinforcement Learning [56.34005280792013]
複雑な実世界の環境でエージェントを訓練することは、桁違いに高速であることを示す。
強化学習の手法を新しい領域に適用することにより、興味深く非自明な解を見つけることができることを示す。
論文 参考訳(メタデータ) (2022-11-23T19:17:20Z) - Coordinated Online Learning for Multi-Agent Systems with Coupled
Constraints and Perturbed Utility Observations [91.02019381927236]
本研究では, 資源制約を満たすため, エージェントを安定な集団状態へ誘導する新しい手法を提案する。
提案手法は,ゲームラグランジアンの拡張によるリソース負荷に基づく分散リソース価格設定手法である。
論文 参考訳(メタデータ) (2020-10-21T10:11:17Z) - Pollux: Co-adaptive Cluster Scheduling for Goodput-Optimized Deep
Learning [61.29990368322931]
Polluxは、相互依存要因を適応的に最適化することで、ディープラーニング(DL)クラスタのスケジューリング性能を改善する。
Polluxは、最先端のDLスケジューラと比較して、平均的なジョブ完了時間を37-50%削減する。
論文 参考訳(メタデータ) (2020-08-27T16:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。