論文の概要: Automatic Error Classification and Root Cause Determination while
Replaying Recorded Workload Data at SAP HANA
- arxiv url: http://arxiv.org/abs/2205.08029v1
- Date: Mon, 16 May 2022 23:58:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 14:16:41.044109
- Title: Automatic Error Classification and Root Cause Determination while
Replaying Recorded Workload Data at SAP HANA
- Title(参考訳): SAP HANAにおける記録ワークロードデータの再生中のエラーの自動分類とルート原因決定
- Authors: Neetha Jambigi, Thomas Bach, Felix Schabernack, Michael Felderer
- Abstract要約: 警告の根本原因を原因とする機械学習ベースのアプローチを設計する。
これは品質保証にいくつかの利点をもたらし、例えば警告が正か正かを分類することができる。
- 参考スコア(独自算出の注目度): 3.9775657072217725
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Capturing customer workloads of database systems to replay these workloads
during internal testing can be beneficial for software quality assurance.
However, we experienced that such replays can produce a large amount of false
positive alerts that make the results unreliable or time consuming to analyze.
Therefore, we design a machine learning based approach that attributes root
causes to the alerts. This provides several benefits for quality assurance and
allows for example to classify whether an alert is true positive or false
positive. Our approach considerably reduces manual effort and improves the
overall quality assurance for the database system SAP HANA. We discuss the
problem, the design and result of our approach, and we present practical
limitations that may require further research.
- Abstract(参考訳): 社内テスト中にこれらのワークロードを再生するためにデータベースシステムの顧客ワークロードをキャプチャすることは、ソフトウェアの品質保証に有益である。
しかし、このようなリプレイが大量の偽陽性警告を発生させることで、結果の信頼性が低下したり、分析に時間がかかります。
したがって、アラートの根本原因を属性とする機械学習ベースのアプローチを設計する。
これは品質保証にいくつかの利点をもたらし、例えば警告が正か正かを分類することができる。
提案手法は手作業を大幅に削減し,データベースシステムSAP HANAの全体的な品質保証を改善する。
我々は,我々のアプローチの問題点,設計と結果について議論し,さらなる研究を必要とする可能性のある実用上の限界を示す。
関連論文リスト
- Failing Forward: Improving Generative Error Correction for ASR with Synthetic Data and Retrieval Augmentation [73.9145653659403]
生成誤差補正モデルは、トレーニング中に発生する特定の種類のエラーを超えて一般化することが困難であることを示す。
DARAGは、ドメイン内(ID)およびOODシナリオにおけるASRのためのGCCを改善するために設計された新しいアプローチである。
私たちのアプローチはシンプルでスケーラブルで、ドメインと言語に依存しません。
論文 参考訳(メタデータ) (2024-10-17T04:00:29Z) - Jailbreaking as a Reward Misspecification Problem [80.52431374743998]
本稿では,この脆弱性をアライメントプロセス中に不特定性に対処する新たな視点を提案する。
本稿では,報酬の相違の程度を定量化し,その有効性を実証する指標ReGapを紹介する。
ReMissは、報酬ミスの空間で敵のプロンプトを生成する自動レッドチームリングシステムである。
論文 参考訳(メタデータ) (2024-06-20T15:12:27Z) - Leveraging Large Language Models for Efficient Failure Analysis in Game Development [47.618236610219554]
本稿では,テストの失敗の原因となるコードの変更を自動的に識別する手法を提案する。
このメソッドは、LLM(Large Language Models)を利用して、エラーメッセージと対応するコード変更を関連付ける。
当社のアプローチは新たに作成したデータセットで71%の精度に達しています。
論文 参考訳(メタデータ) (2024-06-11T09:21:50Z) - Exploring LLM-based Agents for Root Cause Analysis [17.053079105858497]
ルート原因分析(RCA)はインシデント管理プロセスの重要な部分である。
大規模言語モデル(LLM)はRCAの実行に使用されているが、追加の診断情報を収集することはできない。
検索ツールを備えたReActエージェントを,マイクロソフトが収集した生産事故のアウト・オブ・ディストリビューション・データセット上で評価する。
論文 参考訳(メタデータ) (2024-03-07T00:44:01Z) - Automated Test Case Repair Using Language Models [0.5708902722746041]
欠陥のないテストケースは、テストスイートの品質を低下させ、ソフトウェア開発プロセスを破壊します。
テストケースの自動修復に事前訓練されたコード言語モデルを活用する新しいアプローチであるTaRGetを提案する。
TaRGetは、テスト修復を言語翻訳タスクとして扱い、言語モデルを微調整するために2段階のプロセスを使用する。
論文 参考訳(メタデータ) (2024-01-12T18:56:57Z) - Music Instrument Classification Reprogrammed [79.68916470119743]
プログラム」とは、事前学習されたモデルの入力と出力の両方を修正・マッピングすることで、もともと異なるタスクをターゲットにした、事前学習された深層・複雑なニューラルネットワークを利用する手法である。
本研究では,異なるタスクで学習した表現のパワーを効果的に活用できることを実証し,結果として得られた再プログラムシステムは,訓練パラメータのごく一部で,同等あるいはそれ以上の性能を持つシステムでも実行可能であることを実証する。
論文 参考訳(メタデータ) (2022-11-15T18:26:01Z) - SUPERNOVA: Automating Test Selection and Defect Prevention in AAA Video
Games Using Risk Based Testing and Machine Learning [62.997667081978825]
従来の手法では、成長するソフトウェアシステムではスケールできないため、ビデオゲームのテストはますます難しいタスクになります。
自動化ハブとして機能しながら,テスト選択と欠陥防止を行うシステム SUPERNOVA を提案する。
この直接的な影響は、未公表のスポーツゲームタイトルの55%以上のテスト時間を減らすことが観察されている。
論文 参考訳(メタデータ) (2022-03-10T00:47:46Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Automatic Feasibility Study via Data Quality Analysis for ML: A
Case-Study on Label Noise [21.491392581672198]
我々はSnoopyを紹介し、データサイエンティストと機械学習エンジニアが体系的で理論的に確立された実現可能性研究を行うのを支援することを目的としている。
我々は、基礎となるタスクの既約誤差を推定し、この問題にアプローチする。
エンド・ツー・エンドの実験では、ユーザーがかなりのラベリング時間と金銭的努力を節約できることを示す。
論文 参考訳(メタデータ) (2020-10-16T14:21:19Z) - Towards Probabilistic Verification of Machine Unlearning [30.892906429582904]
本稿では,データ削除要求に対する検証機構の設計について研究する形式的枠組みを提案する。
提案手法は,機械学習サービスの精度に最小限の影響を与えるが,未学習に対する信頼性の高い検証を可能にする。
論文 参考訳(メタデータ) (2020-03-09T16:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。