論文の概要: Reclaimer: A Reinforcement Learning Approach to Dynamic Resource
Allocation for Cloud Microservices
- arxiv url: http://arxiv.org/abs/2304.07941v1
- Date: Mon, 17 Apr 2023 01:44:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 16:43:31.448781
- Title: Reclaimer: A Reinforcement Learning Approach to Dynamic Resource
Allocation for Cloud Microservices
- Title(参考訳): Reclaimer: クラウドマイクロサービスのための動的リソース割り当てに対する強化学習アプローチ
- Authors: Quintin Fettes, Avinash Karanth, Razvan Bunescu, Brandon Beckwith,
Sreenivas Subramoney
- Abstract要約: 要件を満たしながらCPUコアの割り当てを最小限に抑えるため,実行時の変更数や動作の変化に適応するディープラーニングモデルであるReclaimerを導入する。
2つのマイクロサービスベースのアプリケーションで評価すると、Reclaimerは業界標準のスケーリングソリューションと比較してCPUコアの割り当てを38.4%から74.4%に削減する。
- 参考スコア(独自算出の注目度): 4.397680391942813
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Many cloud applications are migrated from the monolithic model to a
microservices framework in which hundreds of loosely-coupled microservices run
concurrently, with significant benefits in terms of scalability, rapid
development, modularity, and isolation. However, dependencies among
microservices with uneven execution time may result in longer queues, idle
resources, or Quality-of-Service (QoS) violations.
In this paper we introduce Reclaimer, a deep reinforcement learning model
that adapts to runtime changes in the number and behavior of microservices in
order to minimize CPU core allocation while meeting QoS requirements. When
evaluated with two benchmark microservice-based applications, Reclaimer reduces
the mean CPU core allocation by 38.4% to 74.4% relative to the
industry-standard scaling solution, and by 27.5% to 58.1% relative to a current
state-of-the art method.
- Abstract(参考訳): 多くのクラウドアプリケーションは、モノリシックモデルからマイクロサービスフレームワークに移行され、数百の疎結合マイクロサービスが並行して動作し、スケーラビリティ、迅速な開発、モジュール性、分離という面で大きなメリットがある。
しかしながら、不均一な実行時間を持つマイクロサービス間の依存関係は、長いキュー、アイドルリソース、あるいはQuality-of-Service(QoS)違反をもたらす可能性がある。
本稿では,qos要件を満たしながらcpuコアの割り当てを最小化するために,マイクロサービス数と動作のランタイム変化に対応する深層強化学習モデルreclaimerを提案する。
2つのベンチマークマイクロサービスベースのアプリケーションで評価すると、reclaimerは平均cpuコアの割り当てを業界標準のスケーリングソリューションと比較して38.4%から74.4%、現在の最先端の方法と比較して27.5%から58.1%削減する。
関連論文リスト
- Transforming Image Super-Resolution: A ConvFormer-based Efficient
Approach [63.98380888730723]
本稿では, Convolutional Transformer Layer (ConvFormer) と ConvFormer-based Super-Resolution Network (CFSR) を紹介する。
CFSRは、計算コストの少ない長距離依存と広範囲の受容場を効率的にモデル化する。
これは、x2 SRタスクのUrban100データセットで0.39dB、パラメータが26%、FLOPが31%減少している。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Age-Based Scheduling for Mobile Edge Computing: A Deep Reinforcement
Learning Approach [58.911515417156174]
我々は情報時代(AoI)の新たな定義を提案し、再定義されたAoIに基づいて、MECシステムにおけるオンラインAoI問題を定式化する。
本稿では,システム力学の部分的知識を活用するために,PDS(Post-Decision State)を導入する。
また、PSDと深いRLを組み合わせることで、アルゴリズムの適用性、スケーラビリティ、堅牢性をさらに向上します。
論文 参考訳(メタデータ) (2023-12-01T01:30:49Z) - Democratizing LLMs: An Exploration of Cost-Performance Trade-offs in
Self-Refined Open-Source Models [53.859446823312126]
SoTAは7Bから65Bまでのさまざまなサイズのオープンソースモデルを平均して、ベースラインのパフォーマンスから8.2%改善している。
厳密に言えば、Vicuna-7Bのような非常に小さなメモリフットプリントを持つモデルでさえ、全体的な11.74%の改善と、高い創造性、オープンエンドタスクの25.39%の改善を示している。
論文 参考訳(メタデータ) (2023-10-11T15:56:00Z) - DeepScaler: Holistic Autoscaling for Microservices Based on
Spatiotemporal GNN with Adaptive Graph Learning [4.128665560397244]
本稿では,ディープラーニングに基づく総合的オートスケーリング手法であるDeepScalerを提案する。
サービスレベルの合意(SLA)とコスト効率を最適化するために、サービス依存関係に対処することに焦点を当てています。
実験により,本手法はマイクロサービスのより効率的な自動スケーリング機構を実装していることが示された。
論文 参考訳(メタデータ) (2023-09-02T08:22:21Z) - Handling Communication via APIs for Microservices [6.5499625417846685]
本稿では,従来の通信技術による課題について論じ,API経由のIDパスの代替手法を提案する。
また,API数を削減するアルゴリズムも考案した。
論文 参考訳(メタデータ) (2023-08-02T17:40:34Z) - Benchmarking scalability of stream processing frameworks deployed as
microservices in the cloud [0.38073142980732994]
我々は、体系的手法を用いて、そのスケーラビリティに関する5つの最新のストリーム処理フレームワークをベンチマークする。
すべてのベンチマークフレームワークは、十分なクラウドリソースがプロビジョニングされている限り、ほぼ線形スケーラビリティを示す。
明確な優れたフレームワークはありませんが、ユースケースにおけるフレームワークのランキングです。
論文 参考訳(メタデータ) (2023-03-20T13:22:03Z) - MicroRes: Versatile Resilience Profiling in Microservices via Degradation Dissemination Indexing [29.456286275972474]
マイクロサービスのレジリエンス — 障害から回復し、信頼性と応答性を備えたサービスを提供し続ける能力 — は、クラウドベンダにとって極めて重要です。
現在のプラクティスは、特定のマイクロサービスシステムに手動で設定された特定のルールに依存しており、結果として労働強度と柔軟性の問題が発生します。
私たちの洞察では、レジリエントなデプロイメントは、システムパフォーマンスからユーザ対応メトリクスへの劣化の拡散を効果的に防ぎ、後者はサービス品質に影響を与えます。
論文 参考訳(メタデータ) (2022-12-25T03:56:42Z) - Asynchronous Parallel Incremental Block-Coordinate Descent for
Decentralized Machine Learning [55.198301429316125]
機械学習(ML)は、巨大なIoT(Internet of Things)ベースのインテリジェントでユビキタスなコンピューティングのビッグデータ駆動モデリングと分析のための重要なテクニックである。
急成長するアプリケーションやデータ量にとって、分散学習は有望な新興パラダイムである。
本稿では,多くのユーザデバイスに分散した分散システム上でMLモデルをトレーニングする問題について検討する。
論文 参考訳(メタデータ) (2022-02-07T15:04:15Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Sinan: Data-Driven, QoS-Aware Cluster Management for Microservices [3.6923632650826477]
Sinanはインタラクティブクラウド用のデータ駆動クラスタマネージャで、オンラインであり、アロケーション・アウェアである。
インタラクティブクラウドのためのデータ駆動型クラスタマネージャであるSinanを,オンラインかつアロケーション・アウェアで紹介する。
論文 参考訳(メタデータ) (2021-05-27T19:57:51Z) - Tailored Learning-Based Scheduling for Kubernetes-Oriented Edge-Cloud
System [54.588242387136376]
エッジクラウドシステムのための学習ベースのスケジューリングフレームワークkaisを紹介する。
まず,分散した要求ディスパッチに対応するために,協調型マルチエージェントアクタ-クリティックアルゴリズムを設計する。
次に,多種多様なシステムスケールと構造について,グラフニューラルネットワークを用いてシステム状態情報を埋め込む。
第3に、リクエストディスパッチとサービスオーケストレーションを調和させる2段階のスケジューリングメカニズムを採用します。
論文 参考訳(メタデータ) (2021-01-17T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。