論文の概要: STaleX: A Spatiotemporal-Aware Adaptive Auto-scaling Framework for Microservices
- arxiv url: http://arxiv.org/abs/2501.18734v1
- Date: Thu, 30 Jan 2025 20:19:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-03 14:03:26.044848
- Title: STaleX: A Spatiotemporal-Aware Adaptive Auto-scaling Framework for Microservices
- Title(参考訳): STaleX: マイクロサービスのための時空間対応自動スケーリングフレームワーク
- Authors: Majid Dashtbani, Ladan Tahvildari,
- Abstract要約: 本稿では,これらの課題に対処するための制御理論,機械学習,時相の組み合わせを提案する。
本稿では,機能を統合し,リアルタイムリソース調整を可能にする適応型自動スケーリングフレームワークSTXaleを提案する。
当社のフレームワークは、サービス仕様やサービス間の依存関係を含む機能に加えて、ワークロードの時間的変動も考慮しています。
- 参考スコア(独自算出の注目度): 3.0846824529023382
- License:
- Abstract: While cloud environments and auto-scaling solutions have been widely applied to traditional monolithic applications, they face significant limitations when it comes to microservices-based architectures. Microservices introduce additional challenges due to their dynamic and spatiotemporal characteristics, which require more efficient and specialized auto-scaling strategies. Centralized auto-scaling for the entire microservice application is insufficient, as each service within a chain has distinct specifications and performance requirements. Therefore, each service requires its own dedicated auto-scaler to address its unique scaling needs effectively, while also considering the dependencies with other services in the chain and the overall application. This paper presents a combination of control theory, machine learning, and heuristics to address these challenges. We propose an adaptive auto-scaling framework, STaleX, for microservices that integrates spatiotemporal features, enabling real-time resource adjustments to minimize SLO violations. STaleX employs a set of weighted Proportional-Integral-Derivative (PID) controllers for each service, where weights are dynamically adjusted based on a supervisory unit that integrates spatiotemporal features. This supervisory unit continuously monitors and adjusts both the weights and the resources allocated to each service. Our framework accounts for spatial features, including service specifications and dependencies among services, as well as temporal variations in workload, ensuring that resource allocation is continuously optimized. Through experiments on a microservice-based demo application deployed on a Kubernetes cluster, we demonstrate the effectiveness of our framework in improving performance and reducing costs compared to traditional scaling methods like Kubernetes Horizontal Pod Autoscaler (HPA) with a 26.9% reduction in resource usage.
- Abstract(参考訳): クラウド環境と自動スケーリングソリューションは、従来のモノリシックなアプリケーションに広く適用されているが、マイクロサービスベースのアーキテクチャに関しては、大きな制限に直面している。
マイクロサービスは、より効率的で専門的な自動スケーリング戦略を必要とする、動的で時空間的な特性のために、新たな課題を導入します。
チェーン内の各サービスには、明確な仕様とパフォーマンス要件があるため、マイクロサービスアプリケーション全体の集中型自動スケーリングは不十分である。
そのため各サービスは、チェーン内の他のサービスとアプリケーション全体の依存関係を考慮しながら、独自のスケーリングニーズに効果的に対応するために、独自のオートスケーラが必要です。
本稿では,これらの課題に対処するための制御理論,機械学習,ヒューリスティックスの組み合わせを提案する。
SLO違反を最小限に抑えるために,時空間機能を組み込んだマイクロサービス用の適応型自動スケーリングフレームワークSTaleXを提案する。
STaleXは、各サービスに重み付けされたPID(Proportional-Integral-Derivative)コントローラを使用し、時空間的特徴を統合する監督ユニットに基づいて、重み付けを動的に調整する。
この監視ユニットは、各サービスに割り当てられた重みとリソースを継続的に監視し、調整する。
当社のフレームワークは、サービス仕様やサービス間の依存関係、ワークロードの時間的変動など、空間的特徴を考慮し、リソース割り当てが継続的に最適化されていることを保証します。
Kubernetesクラスタにデプロイされたマイクロサービスベースのデモアプリケーションの実験を通じて、Kubernetes Horizontal Pod Autoscaler(HPA)のような従来のスケーリングメソッドと比較して、パフォーマンスの向上とコスト削減におけるフレームワークの有効性を、26.9%のリソース使用率で実証しています。
関連論文リスト
- SeBS-Flow: Benchmarking Serverless Cloud Function Workflows [51.4200085836966]
本稿では、最初のサーバーレスワークフローベンチマークスイートSeBS-Flowを提案する。
SeBS-Flowには6つの実世界のアプリケーションベンチマークと、異なる計算パターンを表す4つのマイクロベンチマークが含まれている。
当社では,パフォーマンス,コスト,スケーラビリティ,ランタイムの偏差など,3つの主要なクラウドプラットフォームに関する包括的な評価を実施しています。
論文 参考訳(メタデータ) (2024-10-04T14:52:18Z) - Leveraging Interpretability in the Transformer to Automate the Proactive Scaling of Cloud Resources [1.1470070927586018]
我々は、エンドツーエンドのレイテンシ、フロントエンドレベルの要求、リソース利用の関係をキャプチャするモデルを開発する。
次に、開発したモデルを使用して、エンドツーエンドのレイテンシを予測します。
マイクロサービスベースのアプリケーションのメリットを示し、デプロイメントのロードマップを提供します。
論文 参考訳(メタデータ) (2024-09-04T22:03:07Z) - Sparser is Faster and Less is More: Efficient Sparse Attention for Long-Range Transformers [58.5711048151424]
SPARSEK Attention(SPARSEK Attention)は、計算およびメモリ障害を克服するために設計された、新しいスパースアテンション機構である。
提案手法では,各クエリに対して一定数のKVペアを選択するために,スコアリングネットワークと差別化可能なトップkマスク演算子であるSPARSEKを統合する。
実験結果から,SPARSEK注意は従来のスパースアテンション法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-24T15:55:59Z) - DeepScaler: Holistic Autoscaling for Microservices Based on
Spatiotemporal GNN with Adaptive Graph Learning [4.128665560397244]
本稿では,ディープラーニングに基づく総合的オートスケーリング手法であるDeepScalerを提案する。
サービスレベルの合意(SLA)とコスト効率を最適化するために、サービス依存関係に対処することに焦点を当てています。
実験により,本手法はマイクロサービスのより効率的な自動スケーリング機構を実装していることが示された。
論文 参考訳(メタデータ) (2023-09-02T08:22:21Z) - A Deep Recurrent-Reinforcement Learning Method for Intelligent AutoScaling of Serverless Functions [18.36339203254509]
Fは軽量で関数ベースのクラウド実行モデルを導入し、IoTエッジデータ処理や異常検出など、さまざまなアプリケーションでその妥当性を見出す。
論文 参考訳(メタデータ) (2023-08-11T04:41:19Z) - PBScaler: A Bottleneck-aware Autoscaling Framework for
Microservice-based Applications [6.453782169615384]
マイクロサービスベースのアプリケーションのためのボトルネック対応自動スケーリングフレームワークPBScalerを提案する。
PBScalerは資源を効率的に保存しながら既存の手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-03-26T04:20:17Z) - Scalable Vehicle Re-Identification via Self-Supervision [66.2562538902156]
自動車再同定は、都市規模の車両分析システムにおいて重要な要素の1つである。
車両再設計のための最先端のソリューションの多くは、既存のre-idベンチマークの精度向上に重点を置いており、計算の複雑さを無視することが多い。
推論時間に1つのネットワークのみを使用する自己教師型学習によって、シンプルで効果的なハイブリッドソリューションを提案する。
論文 参考訳(メタデータ) (2022-05-16T12:14:42Z) - An automatic differentiation system for the age of differential privacy [65.35244647521989]
Tritiumは、微分プライベート(DP)機械学習(ML)のための自動微分ベース感度分析フレームワークである
我々は、微分プライベート(DP)機械学習(ML)のための自動微分に基づく感度分析フレームワークTritiumを紹介する。
論文 参考訳(メタデータ) (2021-09-22T08:07:42Z) - SensiX++: Bringing MLOPs and Multi-tenant Model Serving to Sensory Edge
Devices [69.1412199244903]
エッジデバイス上でMLOpsを統合した,適応モデル実行のためのマルチテナントランタイムを提案する。
S SensiX++は、高度にモジュール化されたコンポーネント化と、明確な抽象化によるデータ操作の外部化と、システム全体のオーケストレーションのためのドキュメント中心の宣言という、2つの基本原則で運用されている。
SensiX++のさまざまな自動化コンポーネントの全体的なスループットと定量化メリットについて報告し、運用の複雑さを著しく低減し、エッジデバイスへの組み込みモデルのデプロイ、アップグレード、再構成、提供の労力を削減する効果を実証する。
論文 参考訳(メタデータ) (2021-09-08T22:06:16Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - AI-based Resource Allocation: Reinforcement Learning for Adaptive
Auto-scaling in Serverless Environments [0.0]
近年、サーバーレスコンピューティングはクラウドコンピューティングモデルの魅力的な新しいパラダイムとして現れています。
商用およびオープンソースのサーバレスコンピューティングプラットフォームに共通するアプローチは、ワークロードベースの自動スケーリングである。
本稿では、サーバーレスフレームワークにおける要求ベース自動スケーリングに対する強化学習アプローチの適用性について検討する。
論文 参考訳(メタデータ) (2020-05-29T06:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。