論文の概要: Sinan: Data-Driven, QoS-Aware Cluster Management for Microservices
- arxiv url: http://arxiv.org/abs/2105.13424v1
- Date: Thu, 27 May 2021 19:57:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 01:43:57.794631
- Title: Sinan: Data-Driven, QoS-Aware Cluster Management for Microservices
- Title(参考訳): Sinan: データ駆動でQoS対応のマイクロサービスクラスタ管理
- Authors: Yanqi Zhang, Weizhe Hua, Zhuangzhuang Zhou, Edward Suh, Christina
Delimitrou
- Abstract要約: Sinanはインタラクティブクラウド用のデータ駆動クラスタマネージャで、オンラインであり、アロケーション・アウェアである。
インタラクティブクラウドのためのデータ駆動型クラスタマネージャであるSinanを,オンラインかつアロケーション・アウェアで紹介する。
- 参考スコア(独自算出の注目度): 3.6923632650826477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cloud applications are increasingly shifting from large monolithic services,
to large numbers of loosely-coupled, specialized microservices. Despite their
advantages in terms of facilitating development, deployment, modularity, and
isolation, microservices complicate resource management, as dependencies
between them introduce backpressure effects and cascading QoS violations.
We present Sinan, a data-driven cluster manager for interactive cloud
microservices that is online and QoS-aware. Sinan leverages a set of scalable
and validated machine learning models to determine the performance impact of
dependencies between microservices, and allocate appropriate resources per tier
in a way that preserves the end-to-end tail latency target. We evaluate Sinan
both on dedicated local clusters and large-scale deployments on Google Compute
Engine (GCE) across representative end-to-end applications built with
microservices, such as social networks and hotel reservation sites. We show
that Sinan always meets QoS, while also maintaining cluster utilization high,
in contrast to prior work which leads to unpredictable performance or
sacrifices resource efficiency. Furthermore, the techniques in Sinan are
explainable, meaning that cloud operators can yield insights from the ML models
on how to better deploy and design their applications to reduce unpredictable
performance.
- Abstract(参考訳): クラウドアプリケーションはますます、巨大なモノリシックサービスから、疎結合で専門的なマイクロサービスへとシフトしつつある。
開発、デプロイ、モジュール性、分離を容易にするという点では優位性があるが、マイクロサービスはリソース管理を複雑にしている。
オンラインおよびqos対応のインタラクティブクラウドマイクロサービスのためのデータ駆動型クラスタマネージャであるsinanを紹介する。
sinan氏は、スケーラブルで検証可能なマシンラーニングモデルセットを活用して、マイクロサービス間の依存関係のパフォーマンスへの影響を判断し、エンドツーエンドのレイテンシ目標を維持する方法で、層毎に適切なリソースを割り当てる。
私たちはSinanを、専用のローカルクラスタとGoogle Compute Engine(GCE)上の大規模デプロイメントの両方に、ソーシャルネットワークやホテル予約サイトなど、マイクロサービスで構築された代表的なエンドツーエンドアプリケーションを評価します。
予測不能なパフォーマンスやリソース効率の犠牲につながる先行作業とは対照的に,sinanは常にqosを満たしていると同時に,クラスタ利用率も高いことが分かる。
さらに、Sinanのテクニックは説明可能である。つまり、クラウドオペレータは予測不可能なパフォーマンスを減らすために、アプリケーションのデプロイと設計をより良くする方法に関するMLモデルから洞察を得ることができる。
関連論文リスト
- DeepScaler: Holistic Autoscaling for Microservices Based on
Spatiotemporal GNN with Adaptive Graph Learning [4.128665560397244]
本稿では,ディープラーニングに基づく総合的オートスケーリング手法であるDeepScalerを提案する。
サービスレベルの合意(SLA)とコスト効率を最適化するために、サービス依存関係に対処することに焦点を当てています。
実験により,本手法はマイクロサービスのより効率的な自動スケーリング機構を実装していることが示された。
論文 参考訳(メタデータ) (2023-09-02T08:22:21Z) - Alioth: A Machine Learning Based Interference-Aware Performance Monitor
for Multi-Tenancy Applications in Public Cloud [15.942285615596566]
パブリッククラウドにおけるマルチテナントは、共有リソースのコロケーション干渉を引き起こす可能性がある。
クラウドアプリケーションの性能劣化をモニタリングする新しい機械学習フレームワークAliothを提案する。
Aliothの平均絶対誤差は5.29%のオフライン、10.8%である。
論文 参考訳(メタデータ) (2023-07-18T03:34:33Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - Predicting Resource Consumption of Kubernetes Container Systems using
Resource Models [3.138731415322007]
本稿では,クラウドシステムの資源モデルを実証的に導き出す方法について考察する。
私たちは、CPUとメモリリソースに明示的に準拠したフォーマルな言語でデプロイされたサービスのモデルに基づいています。
我々は、小規模なデプロイメントから収集したデータを経験的に活用して、より大きなデプロイメント上での高強度シナリオの実行をシミュレートする。
論文 参考訳(メタデータ) (2023-05-12T17:59:01Z) - Benchmarking scalability of stream processing frameworks deployed as
microservices in the cloud [0.38073142980732994]
我々は、体系的手法を用いて、そのスケーラビリティに関する5つの最新のストリーム処理フレームワークをベンチマークする。
すべてのベンチマークフレームワークは、十分なクラウドリソースがプロビジョニングされている限り、ほぼ線形スケーラビリティを示す。
明確な優れたフレームワークはありませんが、ユースケースにおけるフレームワークのランキングです。
論文 参考訳(メタデータ) (2023-03-20T13:22:03Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Auto-Split: A General Framework of Collaborative Edge-Cloud AI [49.750972428032355]
本稿では,Huawei Cloudのエッジクラウド共同プロトタイプであるAuto-Splitの技法と技術実践について述べる。
私たちの知る限りでは、Deep Neural Network(DNN)分割機能を提供する既存の産業製品はありません。
論文 参考訳(メタデータ) (2021-08-30T08:03:29Z) - Exploring the potential of flow-based programming for machine learning
deployment in comparison with service-oriented architectures [8.677012233188968]
理由のひとつは、データ収集と分析に関するアクティビティのために設計されていないインフラストラクチャである、と私たちは論じています。
本稿では,データストリームを用いたフローベースのプログラミングを,ソフトウェアアプリケーション構築に広く使用されるサービス指向アーキテクチャの代替として検討する。
論文 参考訳(メタデータ) (2021-08-09T15:06:02Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。