論文の概要: Predicting Resource Consumption of Kubernetes Container Systems using
Resource Models
- arxiv url: http://arxiv.org/abs/2305.07651v1
- Date: Fri, 12 May 2023 17:59:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 08:55:24.890532
- Title: Predicting Resource Consumption of Kubernetes Container Systems using
Resource Models
- Title(参考訳): リソースモデルを用いたKubernetesコンテナシステムのリソース消費予測
- Authors: Gianluca Turin, Andrea Borgarelli, Simone Donetti, Ferruccio Damiani,
Einar Broch Johnsen, Silvia Lizeth Tapia Tarifa
- Abstract要約: 本稿では,クラウドシステムの資源モデルを実証的に導き出す方法について考察する。
私たちは、CPUとメモリリソースに明示的に準拠したフォーマルな言語でデプロイされたサービスのモデルに基づいています。
我々は、小規模なデプロイメントから収集したデータを経験的に活用して、より大きなデプロイメント上での高強度シナリオの実行をシミュレートする。
- 参考スコア(独自算出の注目度): 3.138731415322007
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cloud computing has radically changed the way organisations operate their
software by allowing them to achieve high availability of services at
affordable cost. Containerized microservices is an enabling technology for this
change, and advanced container orchestration platforms such as Kubernetes are
used for service management. Despite the flourishing ecosystem of monitoring
tools for such orchestration platforms, service management is still mainly a
manual effort.
The modeling of cloud computing systems is an essential step towards
automatic management, but the modeling of cloud systems of such complexity
remains challenging and, as yet, unaddressed. In fact modeling resource
consumption will be a key to comparing the outcome of possible deployment
scenarios. This paper considers how to derive resource models for cloud systems
empirically. We do so based on models of deployed services in a formal modeling
language with explicit CPU and memory resources; once the adherence to the real
system is good enough, formal properties can be verified in the model.
Targeting a likely microservices application, we present a model of
Kubernetes developed in Real-Time ABS. We report on leveraging data collected
empirically from small deployments to simulate the execution of higher
intensity scenarios on larger deployments. We discuss the challenges and
limitations that arise from this approach, and identify constraints under which
we obtain satisfactory accuracy.
- Abstract(参考訳): クラウドコンピューティングは、組織が手頃なコストでサービスの高可用性を実現することによって、ソフトウェアの運用方法を大きく変えました。
コンテナ化されたマイクロサービスは、この変更を可能にするテクノロジであり、Kubernetesなどの高度なコンテナオーケストレーションプラットフォームは、サービス管理に使用される。
このようなオーケストレーションプラットフォームのための監視ツールのエコシステムは繁栄しているが、サービス管理は依然として主に手作業である。
クラウドコンピューティングシステムのモデリングは、自動管理のための重要なステップであるが、このような複雑なクラウドシステムのモデリングは依然として困難であり、未対応である。
実際、リソース消費のモデリングは、可能なデプロイメントシナリオの結果を比較するための鍵となるでしょう。
本稿では,クラウドシステムの資源モデルを経験的に導出する方法を検討する。
私たちは、明示的なCPUとメモリリソースを備えたフォーマルなモデリング言語でデプロイされたサービスのモデルに基づいています。
マイクロサービスアプリケーションをターゲットに、リアルタイムABSで開発されたKubernetesのモデルを提示します。
大規模デプロイメントにおける高輝度シナリオの実行をシミュレートするために,小規模デプロイメントから実証的に収集したデータを活用することを報告する。
このアプローチから生じる課題と限界を議論し,十分な精度を得るための制約を特定する。
関連論文リスト
- Reusable MLOps: Reusable Deployment, Reusable Infrastructure and
Hot-Swappable Machine Learning models and services [0.0]
私たちは、Reusable MLOpsと呼ばれるAI/MLオペレーションの分野で、持続可能な新しい概念を紹介します。
既存のデプロイメントとインフラストラクチャを再利用して、インフラストラクチャやマイクロサービスを分解することなく、それらをホットスワッピングすることで、新しいモデルを提供しています。
論文 参考訳(メタデータ) (2024-02-19T23:40:46Z) - QualEval: Qualitative Evaluation for Model Improvement [82.73561470966658]
モデル改善のための手段として,自動定性評価による定量的スカラー指標を付加するQualEvalを提案する。
QualEvalは強力なLCM推論器と新しいフレキシブルリニアプログラミングソルバを使用して、人間の読みやすい洞察を生成する。
例えば、その洞察を活用することで、Llama 2モデルの絶対性能が最大15%向上することを示す。
論文 参考訳(メタデータ) (2023-11-06T00:21:44Z) - Continual-Learning-as-a-Service (CLaaS): On-Demand Efficient Adaptation
of Predictive Models [17.83007940710455]
機械学習ベースのアプリケーションを構築したい企業にとって、将来の2つのトレンドは、リアルタイムの推論と継続的な更新である。
本稿では,これらの課題に対処するため,新しいソフトウェアサービスと継続的学習・アズ・ア・サービス(CL)と呼ばれるモデル配信基盤を定義した。
オンプレミスソリューションなしで、効率的でステートフルで使いやすい方法で、データサイエンティストのためのモデル更新とバリデーションツールをサポートする。
論文 参考訳(メタデータ) (2022-06-14T16:22:54Z) - Real-time Neural-MPC: Deep Learning Model Predictive Control for
Quadrotors and Agile Robotic Platforms [59.03426963238452]
モデル予測制御パイプライン内の動的モデルとして,大規模で複雑なニューラルネットワークアーキテクチャを効率的に統合するフレームワークであるReal-time Neural MPCを提案する。
ニューラルネットワークを使わずに、最先端のMPCアプローチと比較して、位置追跡誤差を最大82%削減することで、実世界の問題に対する我々のフレームワークの実現可能性を示す。
論文 参考訳(メタデータ) (2022-03-15T09:38:15Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Power Modeling for Effective Datacenter Planning and Compute Management [53.41102502425513]
我々は,すべてのハードウェア構成とワークロードに適用可能な,正確でシンプルで解釈可能な統計パワーモデルの設計と検証の2つのクラスについて論じる。
提案された統計的モデリング手法は, 単純かつスケーラブルでありながら, 4つの特徴のみを用いて, 95% 以上の多様な配電ユニット (2000 以上) に対して, 5% 未満の絶対パーセンテージエラー (MAPE) で電力を予測できることを実証した。
論文 参考訳(メタデータ) (2021-03-22T21:22:51Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z) - Scalable Deployment of AI Time-series Models for IoT [0.7169734491710924]
IBM Research Castorは、IoTアプリケーションで時系列モデルを管理およびデプロイするためのクラウドネイティブシステムである。
モデルテンプレートはセマンティックな概念の特定のインスタンスに対してデプロイできる。
実世界のスマートグリッドライブ予測アプリケーションのデプロイ結果が報告されている。
論文 参考訳(メタデータ) (2020-03-24T14:27:25Z) - FlexServe: Deployment of PyTorch Models as Flexible REST Endpoints [6.730473762151365]
現代のソフトウェアシステムへの人工知能機能の統合は、クラウドベースのサービスと表現型状態転送アーキテクチャを使用することで、ますます単純化されている。
モデル証明とモデル進化に対する制御の欠如に関する不十分な情報は、厳格なセキュリティ要件を持つ多くの運用環境において、これらのサービスをより広く採用する上で障害となる。
論文 参考訳(メタデータ) (2020-02-29T18:51:09Z) - Model Reuse with Reduced Kernel Mean Embedding Specification [70.044322798187]
現在のアプリケーションで有用なモデルを見つけるための2段階のフレームワークを提案する。
アップロードフェーズでは、モデルがプールにアップロードされている場合、モデルの仕様としてカーネル平均埋め込み(RKME)を縮小する。
デプロイフェーズでは、RKME仕様の値に基づいて、現在のタスクと事前訓練されたモデルの関連性を測定する。
論文 参考訳(メタデータ) (2020-01-20T15:15:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。