論文の概要: Reclaimer: A Reinforcement Learning Approach to Dynamic Resource
Allocation for Cloud Microservices
- arxiv url: http://arxiv.org/abs/2304.07941v1
- Date: Mon, 17 Apr 2023 01:44:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 16:43:31.448781
- Title: Reclaimer: A Reinforcement Learning Approach to Dynamic Resource
Allocation for Cloud Microservices
- Title(参考訳): Reclaimer: クラウドマイクロサービスのための動的リソース割り当てに対する強化学習アプローチ
- Authors: Quintin Fettes, Avinash Karanth, Razvan Bunescu, Brandon Beckwith,
Sreenivas Subramoney
- Abstract要約: 要件を満たしながらCPUコアの割り当てを最小限に抑えるため,実行時の変更数や動作の変化に適応するディープラーニングモデルであるReclaimerを導入する。
2つのマイクロサービスベースのアプリケーションで評価すると、Reclaimerは業界標準のスケーリングソリューションと比較してCPUコアの割り当てを38.4%から74.4%に削減する。
- 参考スコア(独自算出の注目度): 4.397680391942813
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Many cloud applications are migrated from the monolithic model to a
microservices framework in which hundreds of loosely-coupled microservices run
concurrently, with significant benefits in terms of scalability, rapid
development, modularity, and isolation. However, dependencies among
microservices with uneven execution time may result in longer queues, idle
resources, or Quality-of-Service (QoS) violations.
In this paper we introduce Reclaimer, a deep reinforcement learning model
that adapts to runtime changes in the number and behavior of microservices in
order to minimize CPU core allocation while meeting QoS requirements. When
evaluated with two benchmark microservice-based applications, Reclaimer reduces
the mean CPU core allocation by 38.4% to 74.4% relative to the
industry-standard scaling solution, and by 27.5% to 58.1% relative to a current
state-of-the art method.
- Abstract(参考訳): 多くのクラウドアプリケーションは、モノリシックモデルからマイクロサービスフレームワークに移行され、数百の疎結合マイクロサービスが並行して動作し、スケーラビリティ、迅速な開発、モジュール性、分離という面で大きなメリットがある。
しかしながら、不均一な実行時間を持つマイクロサービス間の依存関係は、長いキュー、アイドルリソース、あるいはQuality-of-Service(QoS)違反をもたらす可能性がある。
本稿では,qos要件を満たしながらcpuコアの割り当てを最小化するために,マイクロサービス数と動作のランタイム変化に対応する深層強化学習モデルreclaimerを提案する。
2つのベンチマークマイクロサービスベースのアプリケーションで評価すると、reclaimerは平均cpuコアの割り当てを業界標準のスケーリングソリューションと比較して38.4%から74.4%、現在の最先端の方法と比較して27.5%から58.1%削減する。
関連論文リスト
- Automatic Evaluation for Text-to-image Generation: Task-decomposed Framework, Distilled Training, and Meta-evaluation Benchmark [62.58869921806019]
GPT-4oに基づくタスク分解評価フレームワークを提案し、新しいトレーニングデータセットを自動構築する。
我々は、GPT-4oの評価能力を7BオープンソースMLLM、MiniCPM-V-2.6に効果的に蒸留するための革新的なトレーニング戦略を設計する。
実験結果から,我々の蒸留したオープンソースMLLMは,現在のGPT-4oベースラインよりも有意に優れていた。
論文 参考訳(メタデータ) (2024-11-23T08:06:06Z) - Leveraging Interpretability in the Transformer to Automate the Proactive Scaling of Cloud Resources [1.1470070927586018]
我々は、エンドツーエンドのレイテンシ、フロントエンドレベルの要求、リソース利用の関係をキャプチャするモデルを開発する。
次に、開発したモデルを使用して、エンドツーエンドのレイテンシを予測します。
マイクロサービスベースのアプリケーションのメリットを示し、デプロイメントのロードマップを提供します。
論文 参考訳(メタデータ) (2024-09-04T22:03:07Z) - ThinK: Thinner Key Cache by Query-Driven Pruning [63.13363917871414]
大規模言語モデル(LLM)は自然言語処理の分野に革命をもたらし、様々なアプリケーションで前例のない性能を達成した。
本稿では,KVキャッシュのメモリ消費の非効率性に対処する長文シナリオに焦点を当てた。
我々は,最小のチャネルを選択的に切断しながら,注目重量損失を最小限に抑える新しいクエリ依存型KVキャッシュプルーニング手法であるThinKを提案する。
論文 参考訳(メタデータ) (2024-07-30T17:59:08Z) - Entanglement Distribution Delay Optimization in Quantum Networks with Distillation [51.53291671169632]
量子ネットワーク(QN)は、分散量子コンピューティングとセンシングアプリケーションを実現するために絡み合った状態を分散する。
QSリソース割り当てフレームワークは、エンド・ツー・エンド(e2e)の忠実度を高め、最小レートと忠実度を満たすために提案される。
論文 参考訳(メタデータ) (2024-05-15T02:04:22Z) - Age-Based Scheduling for Mobile Edge Computing: A Deep Reinforcement
Learning Approach [58.911515417156174]
我々は情報時代(AoI)の新たな定義を提案し、再定義されたAoIに基づいて、MECシステムにおけるオンラインAoI問題を定式化する。
本稿では,システム力学の部分的知識を活用するために,PDS(Post-Decision State)を導入する。
また、PSDと深いRLを組み合わせることで、アルゴリズムの適用性、スケーラビリティ、堅牢性をさらに向上します。
論文 参考訳(メタデータ) (2023-12-01T01:30:49Z) - Democratizing LLMs: An Exploration of Cost-Performance Trade-offs in
Self-Refined Open-Source Models [53.859446823312126]
SoTAは7Bから65Bまでのさまざまなサイズのオープンソースモデルを平均して、ベースラインのパフォーマンスから8.2%改善している。
厳密に言えば、Vicuna-7Bのような非常に小さなメモリフットプリントを持つモデルでさえ、全体的な11.74%の改善と、高い創造性、オープンエンドタスクの25.39%の改善を示している。
論文 参考訳(メタデータ) (2023-10-11T15:56:00Z) - DeepScaler: Holistic Autoscaling for Microservices Based on
Spatiotemporal GNN with Adaptive Graph Learning [4.128665560397244]
本稿では,ディープラーニングに基づく総合的オートスケーリング手法であるDeepScalerを提案する。
サービスレベルの合意(SLA)とコスト効率を最適化するために、サービス依存関係に対処することに焦点を当てています。
実験により,本手法はマイクロサービスのより効率的な自動スケーリング機構を実装していることが示された。
論文 参考訳(メタデータ) (2023-09-02T08:22:21Z) - Handling Communication via APIs for Microservices [6.5499625417846685]
本稿では,従来の通信技術による課題について論じ,API経由のIDパスの代替手法を提案する。
また,API数を削減するアルゴリズムも考案した。
論文 参考訳(メタデータ) (2023-08-02T17:40:34Z) - Benchmarking scalability of stream processing frameworks deployed as
microservices in the cloud [0.38073142980732994]
我々は、体系的手法を用いて、そのスケーラビリティに関する5つの最新のストリーム処理フレームワークをベンチマークする。
すべてのベンチマークフレームワークは、十分なクラウドリソースがプロビジョニングされている限り、ほぼ線形スケーラビリティを示す。
明確な優れたフレームワークはありませんが、ユースケースにおけるフレームワークのランキングです。
論文 参考訳(メタデータ) (2023-03-20T13:22:03Z) - MicroRes: Versatile Resilience Profiling in Microservices via Degradation Dissemination Indexing [29.456286275972474]
マイクロサービスのレジリエンス — 障害から回復し、信頼性と応答性を備えたサービスを提供し続ける能力 — は、クラウドベンダにとって極めて重要です。
現在のプラクティスは、特定のマイクロサービスシステムに手動で設定された特定のルールに依存しており、結果として労働強度と柔軟性の問題が発生します。
私たちの洞察では、レジリエントなデプロイメントは、システムパフォーマンスからユーザ対応メトリクスへの劣化の拡散を効果的に防ぎ、後者はサービス品質に影響を与えます。
論文 参考訳(メタデータ) (2022-12-25T03:56:42Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。