論文の概要: A Scenario-Oriented Benchmark for Assessing AIOps Algorithms in Microservice Management
- arxiv url: http://arxiv.org/abs/2407.14532v1
- Date: Tue, 9 Jul 2024 12:41:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-28 18:39:09.758260
- Title: A Scenario-Oriented Benchmark for Assessing AIOps Algorithms in Microservice Management
- Title(参考訳): マイクロサービス管理におけるAIOpsアルゴリズム評価のためのシナリオ指向ベンチマーク
- Authors: Yongqian Sun, Jiaju Wang, Zhengdan Li, Xiaohui Nie, Minghua Ma, Shenglin Zhang, Yuhe Ji, Lu Zhang, Wen Long, Hengmao Chen, Yongnan Luo, Dan Pei,
- Abstract要約: AIOpsアルゴリズムは、マイクロサービスシステムのメンテナンスにおいて重要な役割を果たす。
既存のAIOpsベンチマークでは、主にオフラインデータセットを使用してアルゴリズムを評価する。
我々はMicroServoという評価一貫性とシナリオ指向評価フレームワークを提案する。
- 参考スコア(独自算出の注目度): 11.42069388370935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AIOps algorithms play a crucial role in the maintenance of microservice systems. Many previous benchmarks' performance leaderboard provides valuable guidance for selecting appropriate algorithms. However, existing AIOps benchmarks mainly utilize offline datasets to evaluate algorithms. They cannot consistently evaluate the performance of algorithms using real-time datasets, and the operation scenarios for evaluation are static, which is insufficient for effective algorithm selection. To address these issues, we propose an evaluation-consistent and scenario-oriented evaluation framework named MicroServo. The core idea is to build a live microservice benchmark to generate real-time datasets and consistently simulate the specific operation scenarios on it. MicroServo supports different leaderboards by selecting specific algorithms and datasets according to the operation scenarios. It also supports the deployment of various types of algorithms, enabling algorithms hot-plugging. At last, we test MicroServo with three typical microservice operation scenarios to demonstrate its efficiency and usability.
- Abstract(参考訳): AIOpsアルゴリズムは、マイクロサービスシステムのメンテナンスにおいて重要な役割を果たす。
以前のベンチマークでは、適切なアルゴリズムを選択するための貴重なガイダンスが提供されている。
しかし、既存のAIOpsベンチマークは主にアルゴリズムを評価するためにオフラインデータセットを使用している。
リアルタイムデータセットを用いてアルゴリズムの性能を常に評価することはできず、評価のための運用シナリオは静的であり、効率的なアルゴリズム選択には不十分である。
これらの課題に対処するため,我々はMicroServoという評価一貫性とシナリオ指向評価フレームワークを提案する。
コアとなる考え方は、リアルタイムデータセットを生成し、その上で特定の運用シナリオを一貫してシミュレートする、ライブマイクロサービスベンチマークを構築することだ。
MicroServoは、運用シナリオに応じて特定のアルゴリズムとデータセットを選択することで、さまざまなリーダボードをサポートする。
また、さまざまなタイプのアルゴリズムのデプロイをサポートし、アルゴリズムのホットプラグを可能にする。
最後に、私たちはMicroServoを3つの典型的なマイクロサービスオペレーションシナリオでテストし、その効率性とユーザビリティを実証しました。
関連論文リスト
- TSI-Bench: Benchmarking Time Series Imputation [52.27004336123575]
TSI-Benchは、ディープラーニング技術を利用した時系列計算のための総合ベンチマークスイートである。
TSI-Benchパイプラインは、実験的な設定を標準化し、計算アルゴリズムの公平な評価を可能にする。
TSI-Benchは、計算目的のために時系列予測アルゴリズムを調整するための体系的なパラダイムを革新的に提供する。
論文 参考訳(メタデータ) (2024-06-18T16:07:33Z) - Recommendation of data-free class-incremental learning algorithms by simulating future data [10.309079388745753]
クラスインクリメンタルな学習は、クラスのバッチで構成されるシーケンシャルなデータストリームを扱う。
本稿では,将来的なデータストリームをシミュレートするアルゴリズムレコメンデーション手法を提案する。
シミュレーションストリーム上の最近のアルゴリズムを評価し,ユーザ定義のインクリメンタルな設定において,最高のパフォーマンスを示すアルゴリズムを推奨する。
論文 参考訳(メタデータ) (2024-03-26T22:26:39Z) - From Variability to Stability: Advancing RecSys Benchmarking Practices [3.458464808497421]
本稿では,RecSysアルゴリズムの公平かつ堅牢な比較を容易にするため,新しいベンチマーク手法を提案する。
本研究で導入された2つを含む30ドルのオープンデータセットの多種多様なセットを利用することで、データセット特性がアルゴリズム性能に与える影響を批判的に検証する。
論文 参考訳(メタデータ) (2024-02-15T07:35:52Z) - Graph-PHPA: Graph-based Proactive Horizontal Pod Autoscaling for
Microservices using LSTM-GNN [4.4345763263216895]
Graph-PHPAは、クラウドリソースを割り当てるためのグラフベースのプロアクティブ自動スケーリング戦略である。
本稿では,ルールベースのリソース割り当て方式をベースラインとして,Graph-PHPAの有効性を実証する。
論文 参考訳(メタデータ) (2022-09-06T14:57:53Z) - Per-run Algorithm Selection with Warm-starting using Trajectory-based
Features [5.073358743426584]
インスタンスごとのアルゴリズム選択は、与えられた問題の場合、1つまたは複数の適切なアルゴリズムを推奨する。
提案手法は,実行毎のアルゴリズム選択を行うオンラインアルゴリズム選択方式を提案する。
提案手法は静的なインスタンスごとのアルゴリズム選択よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-04-20T14:30:42Z) - Early Time-Series Classification Algorithms: An Empirical Comparison [59.82930053437851]
早期時系列分類(Early Time-Series Classification, ETSC)は、できるだけ少ない測定で時系列のクラスを予測するタスクである。
既存のETSCアルゴリズムを公開データと,新たに導入された2つのデータセットで評価した。
論文 参考訳(メタデータ) (2022-03-03T10:43:56Z) - Machine Learning for Online Algorithm Selection under Censored Feedback [71.6879432974126]
オンラインアルゴリズム選択(OAS)では、アルゴリズム問題クラスのインスタンスがエージェントに次々に提示され、エージェントは、固定された候補アルゴリズムセットから、おそらく最高のアルゴリズムを迅速に選択する必要がある。
SAT(Satisfiability)のような決定問題に対して、品質は一般的にアルゴリズムのランタイムを指す。
本研究では,OASのマルチアームバンディットアルゴリズムを再検討し,この問題に対処する能力について議論する。
ランタイム指向の損失に適応し、時間的地平線に依存しない空間的・時間的複雑さを維持しながら、部分的に検閲されたデータを可能にする。
論文 参考訳(メタデータ) (2021-09-13T18:10:52Z) - Learning to Hash Robustly, with Guarantees [79.68057056103014]
本稿では,理論的アルゴリズムと本質的に一致する最悪ケース保証を持つハミング空間のためのNSアルゴリズムを設計する。
理論的にも実用的にも、与えられたデータセットに対してアルゴリズムが最適化できる能力を評価する。
我々のアルゴリズムは、MNISTおよびImageNetデータセットに対する最悪のパフォーマンスのクエリを、1.8倍と2.1倍の精度でリコールする。
論文 参考訳(メタデータ) (2021-08-11T20:21:30Z) - Run2Survive: A Decision-theoretic Approach to Algorithm Selection based
on Survival Analysis [75.64261155172856]
生存分析(SA)は、自然に検閲されたデータをサポートし、アルゴリズムランタイムの分散モデルを学習するためにそのようなデータを使用する適切な方法を提供する。
我々は、アルゴリズム選択に対する洗練された決定論的アプローチの基礎として、そのようなモデルを活用し、Run2Surviveを疑う。
標準ベンチマークASlibによる広範な実験では、我々のアプローチは競争力が高く、多くの場合、最先端のASアプローチよりも優れていることが示されている。
論文 参考訳(メタデータ) (2020-07-06T15:20:17Z) - Extreme Algorithm Selection With Dyadic Feature Representation [78.13985819417974]
我々は,数千の候補アルゴリズムの固定セットを考慮に入れた,極端なアルゴリズム選択(XAS)の設定を提案する。
我々は、XAS設定に対する最先端のAS技術の適用性を評価し、Dyadic特徴表現を利用したアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-29T09:40:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。