論文の概要: RISCLESS: A Reinforcement Learning Strategy to Exploit Unused Cloud
Resources
- arxiv url: http://arxiv.org/abs/2205.08350v1
- Date: Thu, 28 Apr 2022 06:49:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-22 12:15:19.776699
- Title: RISCLESS: A Reinforcement Learning Strategy to Exploit Unused Cloud
Resources
- Title(参考訳): RISCLESS: 未使用のクラウドリソースを爆発させる強化学習戦略
- Authors: Sidahmed Yalles (UR1, IRISA-D4), Mohamed Handaoui (Hypermedia, UR1,
IRISA-D4), Jean-Emile Dartois (IRT b-com, DiverSe, UR1, IRISA-D4), Olivier
Barais (UR1, IRISA-D4), Laurent d'Orazio, Jalil Boukhobza (ENSTA Bretagne,
Lab-STICC\_SHAKER)
- Abstract要約: Cloud Providers(CP)の主な目的の1つは、顧客のSLA(Service-Level Agreement)を保証することである。
本稿では、未使用のクラウドリソースを活用するための強化学習戦略RISCLESSを提案する。
- 参考スコア(独自算出の注目度): 0.44634886884474834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the main objectives of Cloud Providers (CP) is to guarantee the
Service-Level Agreement (SLA) of customers while reducing operating costs. To
achieve this goal, CPs have built large-scale datacenters. This leads, however,
to underutilized resources and an increase in costs. A way to improve the
utilization of resources is to reclaim the unused parts and resell them at a
lower price. Providing SLA guarantees to customers on reclaimed resources is a
challenge due to their high volatility. Some state-of-the-art solutions
consider keeping a proportion of resources free to absorb sudden variation in
workloads. Others consider stable resources on top of the volatile ones to fill
in for the lost resources. However, these strategies either reduce the amount
of reclaimable resources or operate on less volatile ones such as Amazon Spot
instance. In this paper, we proposed RISCLESS, a Reinforcement Learning
strategy to exploit unused Cloud resources. Our approach consists of using a
small proportion of stable on-demand resources alongside the ephemeral ones in
order to guarantee customers SLA and reduce the overall costs. The approach
decides when and how much stable resources to allocate in order to fulfill
customers' demands. RISCLESS improved the CPs' profits by an average of 15.9%
compared to state-of-the-art strategies. It also reduced the SLA violation time
by an average of 36.7% while increasing the amount of used ephemeral resources
by 19.5% on average
- Abstract(参考訳): Cloud Providers(CP)の主な目的の1つは、運用コストを削減しつつ、顧客のSLA(Service-Level Agreement)を保証することである。
この目標を達成するため、CPは大規模データセンターを構築した。
しかし、これは未使用の資源とコストの増加につながります。
資源の利用を改善する方法は、未使用の部品を回収し、低価格で再販売することである。
再利用されたリソースに対してSLAを保証することは、高いボラティリティのため、課題である。
一部の最先端ソリューションでは、ワークロードの急激な変動を吸収するためにリソースの比率を自由に保つことを検討している。
他の人々は、失われたリソースを埋めるために揮発性のリソースの上に安定したリソースを考える。
しかしながら、これらの戦略は、再利用可能なリソースの量を減らすか、Amazon Spotインスタンスのような揮発性の低いリソースを運用する。
本稿では,未使用のクラウドリソースを活用するための強化学習戦略RISCLESSを提案する。
当社のアプローチは、顧客SLAの保証と全体的なコスト削減のために、短命なリソースとともに、少数の安定したオンデマンドリソースを使用することから成り立っている。
このアプローチは、顧客の要求を満たすために、いつ、どの程度安定したリソースを割り当てるかを決定する。
RISCLESSは最先端戦略と比較してCPの利益を平均15.9%改善した。
また、sla違反時間を平均36.7%削減し、使用済みの短命資源を平均19.5%増加させた。
関連論文リスト
- Multi-Level ML Based Burst-Aware Autoscaling for SLO Assurance and Cost
Efficiency [3.5624365288866007]
本稿では、複雑なワークロード下でコンテナ化されたクラウドサービスやアプリケーションのためのBurst-Aware AutoscalingフレームワークであるBAScalerを紹介します。
BAScalerには、予測可能な周期的なワークロードスパイクと実際のバーストを区別する、予測に基づく新しいバースト検出機構が組み込まれている。
論文 参考訳(メタデータ) (2024-02-20T12:28:25Z) - Democratizing LLMs: An Exploration of Cost-Performance Trade-offs in
Self-Refined Open-Source Models [53.859446823312126]
SoTAは7Bから65Bまでのさまざまなサイズのオープンソースモデルを平均して、ベースラインのパフォーマンスから8.2%改善している。
厳密に言えば、Vicuna-7Bのような非常に小さなメモリフットプリントを持つモデルでさえ、全体的な11.74%の改善と、高い創造性、オープンエンドタスクの25.39%の改善を示している。
論文 参考訳(メタデータ) (2023-10-11T15:56:00Z) - RAPID: Enabling Fast Online Policy Learning in Dynamic Public Cloud
Environments [7.825552412435501]
本研究では,動的運用環境における資源割当ポリシ学習の高速化を目的とした新しいフレームワークを提案する。
我々のフレームワークは、従来の最先端の時間と比較して、数分で安定したリソース割り当てポリシーを学習できることを示します。
論文 参考訳(メタデータ) (2023-04-10T18:04:39Z) - Efficient Exploration in Resource-Restricted Reinforcement Learning [6.463999435780127]
多くの実世界の強化学習の応用において、行動を実行するには、各エピソードで再生不可能な特定の種類のリソースを消費する必要がある。
資源を合理的に活用するための新しい資源対応探索ボーナス(RAEB)を提案する。
RAEBは資源制限強化学習環境における最先端の探査戦略を著しく上回っている。
論文 参考訳(メタデータ) (2022-12-14T02:50:26Z) - Outsourcing Training without Uploading Data via Efficient Collaborative
Open-Source Sampling [49.87637449243698]
従来のアウトソーシングでは、デバイスデータをクラウドサーバにアップロードする必要がある。
我々は、公開および異種ソースから収集された膨大なデータセットである、広く利用可能なオープンソースデータを活用することを提案する。
我々は,オープンソースデータからクラウドトレーニングのためのプロキシデータセットを構築するための,ECOS(Efficient Collaborative Open-source Sampling)と呼ばれる新しい戦略を開発した。
論文 参考訳(メタデータ) (2022-10-23T00:12:18Z) - PROMPT: Learning Dynamic Resource Allocation Policies for Network
Applications [16.812611987082082]
本稿では、プロアクティブな予測を用いて強化学習コントローラを誘導する新しいリソース割り当てフレームワークPROMPTを提案する。
本稿では,PROMPTが4.2倍少ない違反を発生させ,政策違反の深刻度を12.7倍に低減し,最善を尽くした作業負荷性能を向上し,先行作業よりも全体的な電力効率を向上することを示す。
論文 参考訳(メタデータ) (2022-01-19T23:34:34Z) - Coordinated Online Learning for Multi-Agent Systems with Coupled
Constraints and Perturbed Utility Observations [91.02019381927236]
本研究では, 資源制約を満たすため, エージェントを安定な集団状態へ誘導する新しい手法を提案する。
提案手法は,ゲームラグランジアンの拡張によるリソース負荷に基づく分散リソース価格設定手法である。
論文 参考訳(メタデータ) (2020-10-21T10:11:17Z) - ReLeaSER: A Reinforcement Learning Strategy for Optimizing Utilization
Of Ephemeral Cloud Resources [2.205500582481277]
本稿では,クラウド上での短命資源の利用を最適化するための強化学習戦略を提案する。
私たちのソリューションはSLA違反の罰則を平均2.7倍、最大3.4倍に大幅に削減します。
またCPの貯蓄率を平均で27.6%、最大で43.6%向上させる。
論文 参考訳(メタデータ) (2020-09-23T15:19:28Z) - Pollux: Co-adaptive Cluster Scheduling for Goodput-Optimized Deep
Learning [61.29990368322931]
Polluxは、相互依存要因を適応的に最適化することで、ディープラーニング(DL)クラスタのスケジューリング性能を改善する。
Polluxは、最先端のDLスケジューラと比較して、平均的なジョブ完了時間を37-50%削減する。
論文 参考訳(メタデータ) (2020-08-27T16:56:48Z) - Hierarchical Adaptive Contextual Bandits for Resource Constraint based
Recommendation [49.69139684065241]
コンテキスト多重武装バンディット(MAB)は、様々な問題において最先端のパフォーマンスを達成する。
本稿では,階層型適応型文脈帯域幅法(HATCH)を提案する。
論文 参考訳(メタデータ) (2020-04-02T17:04:52Z) - Improving Candidate Generation for Low-resource Cross-lingual Entity
Linking [81.41804263432684]
XEL(クロスランガル・エンティティ・リンク)は、ソース言語テキストから抽出された参照をターゲット言語知識ベース(KB)で検索するタスクである。
本稿では,(1)エンティティ参照とKBエントリの切断を減らすこと,(2)低リソースシナリオへのモデルの堅牢性を改善すること,の3つの改良を提案する。
論文 参考訳(メタデータ) (2020-03-03T05:32:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。