論文の概要: Autothrottle: A Practical Bi-Level Approach to Resource Management for
SLO-Targeted Microservices
- arxiv url: http://arxiv.org/abs/2212.12180v3
- Date: Fri, 5 May 2023 05:01:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 17:11:57.914215
- Title: Autothrottle: A Practical Bi-Level Approach to Resource Management for
SLO-Targeted Microservices
- Title(参考訳): autothrottle: スローターゲットマイクロサービスのリソース管理のための実用的なbiレベルアプローチ
- Authors: Zibo Wang, Pinghe Li, Chieh-Jan Mike Liang, Feng Wu, Francis Y. Yan
- Abstract要約: Autothrottleは、SLOがターゲットとするベースラインのための、双方向の学習支援リソース管理フレームワークである。
アプリケーションSLOフィードバックとサービスリソース管理のメカニズムをアーキテクチャ的に分離します。
その結果、優れたCPUリソースの節約、最高性能のベースラインの最大26.21%、全ベースラインの最大93.84%が達成された。
- 参考スコア(独自算出の注目度): 30.004765471607474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving resource efficiency while preserving end-user experience is
non-trivial for cloud application operators. As cloud applications
progressively adopt microservices, resource managers are faced with two
distinct levels of system behavior: the end-to-end application latency and
per-service resource usage. Translation between these two levels, however, is
challenging because user requests traverse heterogeneous services that
collectively (but unevenly) contribute to the end-to-end latency. This paper
presents Autothrottle, a bi-level learning-assisted resource management
framework for SLO-targeted microservices. It architecturally decouples
mechanisms of application SLO feedback and service resource control, and
bridges them with the notion of performance targets. This decoupling enables
targeted control policies for these two mechanisms, where we combine
lightweight heuristics and learning techniques. We evaluate Autothrottle on
three microservice applications, with workload traces from production
scenarios. Results show its superior CPU resource saving, up to 26.21% over the
best-performing baseline, and up to 93.84% over all baselines.
- Abstract(参考訳): エンドユーザーエクスペリエンスを維持しながらリソース効率を達成することは、クラウドアプリケーションオペレーターにとって非自明なことです。
クラウドアプリケーションがマイクロサービスを採用するにつれて、リソースマネージャは、エンドツーエンドのアプリケーションレイテンシとサービス単位のリソース使用という、2つの異なるレベルのシステム動作に直面します。
しかし、この2つのレベル間の変換は、ユーザ要求が一括して(不均一に)エンドツーエンドのレイテンシに寄与する異種サービスを横断しているため、難しい。
本稿では,SLOをターゲットとするマイクロサービスのための双方向学習支援リソース管理フレームワークであるAutothrottleを提案する。
アプリケーションSLOフィードバックとサービスリソース制御のメカニズムをアーキテクチャ的に分離し、パフォーマンス目標の概念でそれらをブリッジします。
この分離により、軽量なヒューリスティックと学習技術を組み合わせた2つのメカニズムのターゲット制御ポリシが実現される。
プロダクションシナリオからのワークロードトレースを備えた,3つのマイクロサービスアプリケーション上でAutothrottleを評価する。
その結果、CPUリソースの節約は最高性能のベースラインで26.21%、全ベースラインで93.84%に向上した。
関連論文リスト
- SeBS-Flow: Benchmarking Serverless Cloud Function Workflows [51.4200085836966]
本稿では、最初のサーバーレスワークフローベンチマークスイートSeBS-Flowを提案する。
SeBS-Flowには6つの実世界のアプリケーションベンチマークと、異なる計算パターンを表す4つのマイクロベンチマークが含まれている。
当社では,パフォーマンス,コスト,スケーラビリティ,ランタイムの偏差など,3つの主要なクラウドプラットフォームに関する包括的な評価を実施しています。
論文 参考訳(メタデータ) (2024-10-04T14:52:18Z) - A Learning-based Incentive Mechanism for Mobile AIGC Service in Decentralized Internet of Vehicles [49.86094523878003]
モバイルAIGCサービスアロケーションのための分散インセンティブ機構を提案する。
我々は、AIGCサービスのRSUへの供給と、IoVコンテキスト内のサービスに対するユーザ要求のバランスを見つけるために、マルチエージェントの深層強化学習を採用している。
論文 参考訳(メタデータ) (2024-03-29T12:46:07Z) - RL-GPT: Integrating Reinforcement Learning and Code-as-policy [82.1804241891039]
本稿では,低速エージェントと高速エージェントからなる2レベル階層型フレームワークRL-GPTを提案する。
遅いエージェントはコーディングに適したアクションを分析し、速いエージェントはコーディングタスクを実行する。
この分解は、各エージェントが特定のタスクに効果的に集中し、パイプライン内で非常に効率的なことを証明します。
論文 参考訳(メタデータ) (2024-02-29T16:07:22Z) - DeepScaler: Holistic Autoscaling for Microservices Based on
Spatiotemporal GNN with Adaptive Graph Learning [4.128665560397244]
本稿では,ディープラーニングに基づく総合的オートスケーリング手法であるDeepScalerを提案する。
サービスレベルの合意(SLA)とコスト効率を最適化するために、サービス依存関係に対処することに焦点を当てています。
実験により,本手法はマイクロサービスのより効率的な自動スケーリング機構を実装していることが示された。
論文 参考訳(メタデータ) (2023-09-02T08:22:21Z) - A Framework for dynamically meeting performance objectives on a service
mesh [0.0]
サービスメッシュ上で並列に実行される複数のサービスに対して,エンドツーエンドの管理目標を達成するためのフレームワークを提案する。
実資源に対して定期的に制御動作を行うエージェントの訓練に強化学習技術を適用した。
論文 参考訳(メタデータ) (2023-06-25T09:08:41Z) - Dynamically meeting performance objectives for multiple services on a
service mesh [0.0]
サービスプロバイダがさまざまな負荷下でエンドツーエンドの管理目標を達成するためのフレームワークを提案する。
サービス要求のエンドツーエンド遅延境界、スループット目標、サービス差別化など、さまざまな管理目標について検討する。
テストベッドではなくシミュレータ上で制御ポリシを計算し,学習プロセスを桁違いに高速化する。
論文 参考訳(メタデータ) (2022-10-08T11:54:25Z) - Reinforcement Learning-based Dynamic Service Placement in Vehicular
Networks [4.010371060637208]
さまざまなタイプのサービスの要求におけるトラフィックモビリティパターンとダイナミックスの複雑さは、サービスの配置を困難なタスクにしました。
トラフィックモビリティやサービスのダイナミクスを考慮していないため、典型的な静的配置ソリューションは効果的ではありません。
本稿では,エッジサーバに最適なサービス配置を見つけるために,強化学習に基づく動的(RL-Dynamic)サービス配置フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-31T15:01:35Z) - Intelligent colocation of HPC workloads [0.0]
多くのHPCアプリケーションは、共有キャッシュ、命令実行ユニット、I/O、メモリ帯域幅のボトルネックに苦しんでいる。
開発者やランタイムシステムにとって、すべての重要なリソースが単一のアプリケーションによって完全に悪用されることを保証するのは難しいため、魅力的なテクニックは、複数のアプリケーションを同じサーバに配置することです。
まず,ハードウェアの性能カウンタに基づいて,コロケーションされたアプリケーションの性能劣化をモデル化することにより,サーバ効率を向上できることを示す。
論文 参考訳(メタデータ) (2021-03-16T12:35:35Z) - Deep Learning-based Resource Allocation For Device-to-Device
Communication [66.74874646973593]
デバイス間通信(D2D)を用いたマルチチャネルセルシステムにおいて,リソース割り当ての最適化のためのフレームワークを提案する。
任意のチャネル条件に対する最適な資源配分戦略をディープニューラルネットワーク(DNN)モデルにより近似する深層学習(DL)フレームワークを提案する。
シミュレーションの結果,提案手法のリアルタイム性能を低速で実現できることが確認された。
論文 参考訳(メタデータ) (2020-11-25T14:19:23Z) - Pollux: Co-adaptive Cluster Scheduling for Goodput-Optimized Deep
Learning [61.29990368322931]
Polluxは、相互依存要因を適応的に最適化することで、ディープラーニング(DL)クラスタのスケジューリング性能を改善する。
Polluxは、最先端のDLスケジューラと比較して、平均的なジョブ完了時間を37-50%削減する。
論文 参考訳(メタデータ) (2020-08-27T16:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。