論文の概要: Sinan: Data-Driven, QoS-Aware Cluster Management for Microservices
- arxiv url: http://arxiv.org/abs/2105.13424v1
- Date: Thu, 27 May 2021 19:57:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 01:43:57.794631
- Title: Sinan: Data-Driven, QoS-Aware Cluster Management for Microservices
- Title(参考訳): Sinan: データ駆動でQoS対応のマイクロサービスクラスタ管理
- Authors: Yanqi Zhang, Weizhe Hua, Zhuangzhuang Zhou, Edward Suh, Christina
Delimitrou
- Abstract要約: Sinanはインタラクティブクラウド用のデータ駆動クラスタマネージャで、オンラインであり、アロケーション・アウェアである。
インタラクティブクラウドのためのデータ駆動型クラスタマネージャであるSinanを,オンラインかつアロケーション・アウェアで紹介する。
- 参考スコア(独自算出の注目度): 3.6923632650826477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cloud applications are increasingly shifting from large monolithic services,
to large numbers of loosely-coupled, specialized microservices. Despite their
advantages in terms of facilitating development, deployment, modularity, and
isolation, microservices complicate resource management, as dependencies
between them introduce backpressure effects and cascading QoS violations.
We present Sinan, a data-driven cluster manager for interactive cloud
microservices that is online and QoS-aware. Sinan leverages a set of scalable
and validated machine learning models to determine the performance impact of
dependencies between microservices, and allocate appropriate resources per tier
in a way that preserves the end-to-end tail latency target. We evaluate Sinan
both on dedicated local clusters and large-scale deployments on Google Compute
Engine (GCE) across representative end-to-end applications built with
microservices, such as social networks and hotel reservation sites. We show
that Sinan always meets QoS, while also maintaining cluster utilization high,
in contrast to prior work which leads to unpredictable performance or
sacrifices resource efficiency. Furthermore, the techniques in Sinan are
explainable, meaning that cloud operators can yield insights from the ML models
on how to better deploy and design their applications to reduce unpredictable
performance.
- Abstract(参考訳): クラウドアプリケーションはますます、巨大なモノリシックサービスから、疎結合で専門的なマイクロサービスへとシフトしつつある。
開発、デプロイ、モジュール性、分離を容易にするという点では優位性があるが、マイクロサービスはリソース管理を複雑にしている。
オンラインおよびqos対応のインタラクティブクラウドマイクロサービスのためのデータ駆動型クラスタマネージャであるsinanを紹介する。
sinan氏は、スケーラブルで検証可能なマシンラーニングモデルセットを活用して、マイクロサービス間の依存関係のパフォーマンスへの影響を判断し、エンドツーエンドのレイテンシ目標を維持する方法で、層毎に適切なリソースを割り当てる。
私たちはSinanを、専用のローカルクラスタとGoogle Compute Engine(GCE)上の大規模デプロイメントの両方に、ソーシャルネットワークやホテル予約サイトなど、マイクロサービスで構築された代表的なエンドツーエンドアプリケーションを評価します。
予測不能なパフォーマンスやリソース効率の犠牲につながる先行作業とは対照的に,sinanは常にqosを満たしていると同時に,クラスタ利用率も高いことが分かる。
さらに、Sinanのテクニックは説明可能である。つまり、クラウドオペレータは予測不可能なパフォーマンスを減らすために、アプリケーションのデプロイと設計をより良くする方法に関するMLモデルから洞察を得ることができる。
関連論文リスト
- Read-ME: Refactorizing LLMs as Router-Decoupled Mixture of Experts with System Co-Design [59.00758127310582]
本稿では、事前学習された高密度LCMをより小さなMoEモデルに変換する新しいフレームワークRead-MEを提案する。
当社のアプローチでは,専門家の抽出にアクティベーション空間を用いる。
Read-MEは、同様のスケールの他の人気のあるオープンソース高密度モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-24T19:48:51Z) - SeBS-Flow: Benchmarking Serverless Cloud Function Workflows [51.4200085836966]
本稿では、最初のサーバーレスワークフローベンチマークスイートSeBS-Flowを提案する。
SeBS-Flowには6つの実世界のアプリケーションベンチマークと、異なる計算パターンを表す4つのマイクロベンチマークが含まれている。
当社では,パフォーマンス,コスト,スケーラビリティ,ランタイムの偏差など,3つの主要なクラウドプラットフォームに関する包括的な評価を実施しています。
論文 参考訳(メタデータ) (2024-10-04T14:52:18Z) - Leveraging Interpretability in the Transformer to Automate the Proactive Scaling of Cloud Resources [1.1470070927586018]
我々は、エンドツーエンドのレイテンシ、フロントエンドレベルの要求、リソース利用の関係をキャプチャするモデルを開発する。
次に、開発したモデルを使用して、エンドツーエンドのレイテンシを予測します。
マイクロサービスベースのアプリケーションのメリットを示し、デプロイメントのロードマップを提供します。
論文 参考訳(メタデータ) (2024-09-04T22:03:07Z) - DeepScaler: Holistic Autoscaling for Microservices Based on
Spatiotemporal GNN with Adaptive Graph Learning [4.128665560397244]
本稿では,ディープラーニングに基づく総合的オートスケーリング手法であるDeepScalerを提案する。
サービスレベルの合意(SLA)とコスト効率を最適化するために、サービス依存関係に対処することに焦点を当てています。
実験により,本手法はマイクロサービスのより効率的な自動スケーリング機構を実装していることが示された。
論文 参考訳(メタデータ) (2023-09-02T08:22:21Z) - Alioth: A Machine Learning Based Interference-Aware Performance Monitor
for Multi-Tenancy Applications in Public Cloud [15.942285615596566]
パブリッククラウドにおけるマルチテナントは、共有リソースのコロケーション干渉を引き起こす可能性がある。
クラウドアプリケーションの性能劣化をモニタリングする新しい機械学習フレームワークAliothを提案する。
Aliothの平均絶対誤差は5.29%のオフライン、10.8%である。
論文 参考訳(メタデータ) (2023-07-18T03:34:33Z) - Predicting Resource Consumption of Kubernetes Container Systems using
Resource Models [3.138731415322007]
本稿では,クラウドシステムの資源モデルを実証的に導き出す方法について考察する。
私たちは、CPUとメモリリソースに明示的に準拠したフォーマルな言語でデプロイされたサービスのモデルに基づいています。
我々は、小規模なデプロイメントから収集したデータを経験的に活用して、より大きなデプロイメント上での高強度シナリオの実行をシミュレートする。
論文 参考訳(メタデータ) (2023-05-12T17:59:01Z) - Benchmarking scalability of stream processing frameworks deployed as
microservices in the cloud [0.38073142980732994]
我々は、体系的手法を用いて、そのスケーラビリティに関する5つの最新のストリーム処理フレームワークをベンチマークする。
すべてのベンチマークフレームワークは、十分なクラウドリソースがプロビジョニングされている限り、ほぼ線形スケーラビリティを示す。
明確な優れたフレームワークはありませんが、ユースケースにおけるフレームワークのランキングです。
論文 参考訳(メタデータ) (2023-03-20T13:22:03Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。