論文の概要: Autothrottle: A Practical Bi-Level Approach to Resource Management for
SLO-Targeted Microservices
- arxiv url: http://arxiv.org/abs/2212.12180v4
- Date: Wed, 11 Oct 2023 06:49:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 04:23:29.972672
- Title: Autothrottle: A Practical Bi-Level Approach to Resource Management for
SLO-Targeted Microservices
- Title(参考訳): autothrottle: スローターゲットマイクロサービスのリソース管理のための実用的なbiレベルアプローチ
- Authors: Zibo Wang, Pinghe Li, Chieh-Jan Mike Liang, Feng Wu, Francis Y. Yan
- Abstract要約: Autothrottleは、サービスレベルの目的のための双方向のリソース管理フレームワークである。
サービスリソースコントロールからアプリケーションフィードバックをトラバースし、パフォーマンス目標という概念を通じてそれらをブリッジします。
その結果、最高成績のベースラインを26.21%、全ベースラインを93.84%上回った。
- 参考スコア(独自算出の注目度): 32.26598461917126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving resource efficiency while preserving end-user experience is
non-trivial for cloud application operators. As cloud applications
progressively adopt microservices, resource managers are faced with two
distinct levels of system behavior: end-to-end application latency and
per-service resource usage. Translating between the two levels, however, is
challenging because user requests traverse heterogeneous services that
collectively (but unevenly) contribute to the end-to-end latency. We present
Autothrottle, a bi-level resource management framework for microservices with
latency SLOs (service-level objectives). It architecturally decouples
application SLO feedback from service resource control, and bridges them
through the notion of performance targets. Specifically, an application-wide
learning-based controller is employed to periodically set performance targets
-- expressed as CPU throttle ratios -- for per-service heuristic controllers to
attain. We evaluate Autothrottle on three microservice applications, with
workload traces from production scenarios. Results show superior CPU savings,
up to 26.21% over the best-performing baseline and up to 93.84% over all
baselines.
- Abstract(参考訳): エンドユーザーエクスペリエンスを維持しながらリソース効率を達成することは、クラウドアプリケーションオペレーターにとって非自明なことです。
クラウドアプリケーションがマイクロサービスを採用するにつれて、リソースマネージャは、エンドツーエンドのアプリケーションレイテンシとサービス単位のリソース使用という、2つの異なるレベルのシステム動作に直面します。
しかし、この2つのレベルの間の翻訳は、ユーザ要求が一括して(不均一に)エンドツーエンドのレイテンシに寄与する異種サービスを横断しているため、難しい。
レイテンシSLO(サービスレベルの目的)を備えたマイクロサービス用の双方向リソース管理フレームワークであるAutothrottleを紹介します。
アーキテクチャ上、SLOのフィードバックをサービスリソースコントロールから切り離し、パフォーマンス目標の概念を通じてそれらをブリッジします。
具体的には、アプリケーション全体の学習ベースのコントローラを使用して、サービス毎のヒューリスティックコントローラが達成するためのcpuスロットル比として表現されるパフォーマンスターゲットを定期的に設定する。
プロダクションシナリオからのワークロードトレースを備えた,3つのマイクロサービスアプリケーション上でAutothrottleを評価する。
その結果、最高性能のベースラインよりも最大26.21%、全ベースラインに対して最大93.84%のcpu節約が得られた。
関連論文リスト
- Reinforcement Learning for Long-Horizon Interactive LLM Agents [56.9860859585028]
インタラクティブデジタルエージェント(IDA)は、ステートフルなデジタル環境のAPIを利用して、ユーザの要求に応じてタスクを実行する。
対象環境で直接IDAを訓練する強化学習(RL)手法を提案する。
我々は、近似ポリシー最適化のデータおよびメモリ効率の亜種である LOOP を導出する。
論文 参考訳(メタデータ) (2025-02-03T18:35:42Z) - STaleX: A Spatiotemporal-Aware Adaptive Auto-scaling Framework for Microservices [3.0846824529023382]
本稿では,これらの課題に対処するための制御理論,機械学習,時相の組み合わせを提案する。
本稿では,機能を統合し,リアルタイムリソース調整を可能にする適応型自動スケーリングフレームワークSTXaleを提案する。
当社のフレームワークは、サービス仕様やサービス間の依存関係を含む機能に加えて、ワークロードの時間的変動も考慮しています。
論文 参考訳(メタデータ) (2025-01-30T20:19:13Z) - Distilling Multi-modal Large Language Models for Autonomous Driving [64.63127269187814]
近年のエンド・ツー・エンドの自動運転システムは,大規模言語モデル(LLM)をプランナーとして活用し,レアイベントに対する一般化性を向上させる。
我々は,LLMの世界の知識を活用しつつ,LLMフリー(あるいはビジョンベース)プランナの効率を維持するエンド・ツー・エンドの自動運転システムであるDiMAを提案する。
DiMAを用いたトレーニングでは、L2軌道誤差が37%減少し、ビジョンベースプランナーの衝突速度が80%低下し、ロングテールシナリオでは44%軌道誤差が減少する。
論文 参考訳(メタデータ) (2025-01-16T18:59:53Z) - FaaSRCA: Full Lifecycle Root Cause Analysis for Serverless Applications [9.14008416378655]
FRCAは、サーバレスアプリケーションのための完全なライフサイクル根本原因分析手法である。
Global Call Graphを使用して、プラットフォームとアプリケーション側から生成されたマルチモーダル可観測データを統合する。
スコアに基づいて、サーバレス関数のライフサイクルステージの粒度の根本原因を決定する。
論文 参考訳(メタデータ) (2024-12-03T08:06:29Z) - A Learning-based Incentive Mechanism for Mobile AIGC Service in Decentralized Internet of Vehicles [49.86094523878003]
モバイルAIGCサービスアロケーションのための分散インセンティブ機構を提案する。
我々は、AIGCサービスのRSUへの供給と、IoVコンテキスト内のサービスに対するユーザ要求のバランスを見つけるために、マルチエージェントの深層強化学習を採用している。
論文 参考訳(メタデータ) (2024-03-29T12:46:07Z) - RL-GPT: Integrating Reinforcement Learning and Code-as-policy [82.1804241891039]
本稿では,低速エージェントと高速エージェントからなる2レベル階層型フレームワークRL-GPTを提案する。
遅いエージェントはコーディングに適したアクションを分析し、速いエージェントはコーディングタスクを実行する。
この分解は、各エージェントが特定のタスクに効果的に集中し、パイプライン内で非常に効率的なことを証明します。
論文 参考訳(メタデータ) (2024-02-29T16:07:22Z) - DeepScaler: Holistic Autoscaling for Microservices Based on
Spatiotemporal GNN with Adaptive Graph Learning [4.128665560397244]
本稿では,ディープラーニングに基づく総合的オートスケーリング手法であるDeepScalerを提案する。
サービスレベルの合意(SLA)とコスト効率を最適化するために、サービス依存関係に対処することに焦点を当てています。
実験により,本手法はマイクロサービスのより効率的な自動スケーリング機構を実装していることが示された。
論文 参考訳(メタデータ) (2023-09-02T08:22:21Z) - Dynamically meeting performance objectives for multiple services on a
service mesh [0.0]
サービスプロバイダがさまざまな負荷下でエンドツーエンドの管理目標を達成するためのフレームワークを提案する。
サービス要求のエンドツーエンド遅延境界、スループット目標、サービス差別化など、さまざまな管理目標について検討する。
テストベッドではなくシミュレータ上で制御ポリシを計算し,学習プロセスを桁違いに高速化する。
論文 参考訳(メタデータ) (2022-10-08T11:54:25Z) - Reinforcement Learning-based Dynamic Service Placement in Vehicular
Networks [4.010371060637208]
さまざまなタイプのサービスの要求におけるトラフィックモビリティパターンとダイナミックスの複雑さは、サービスの配置を困難なタスクにしました。
トラフィックモビリティやサービスのダイナミクスを考慮していないため、典型的な静的配置ソリューションは効果的ではありません。
本稿では,エッジサーバに最適なサービス配置を見つけるために,強化学習に基づく動的(RL-Dynamic)サービス配置フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-31T15:01:35Z) - Pollux: Co-adaptive Cluster Scheduling for Goodput-Optimized Deep
Learning [61.29990368322931]
Polluxは、相互依存要因を適応的に最適化することで、ディープラーニング(DL)クラスタのスケジューリング性能を改善する。
Polluxは、最先端のDLスケジューラと比較して、平均的なジョブ完了時間を37-50%削減する。
論文 参考訳(メタデータ) (2020-08-27T16:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。