論文の概要: Automated Performance Testing Based on Active Deep Learning
- arxiv url: http://arxiv.org/abs/2104.02102v1
- Date: Mon, 5 Apr 2021 18:19:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 13:52:52.738879
- Title: Automated Performance Testing Based on Active Deep Learning
- Title(参考訳): アクティブディープラーニングに基づく自動パフォーマンステスト
- Authors: Ali Sedaghatbaf, Mahshid Helali Moghadam and Mehrdad Saadatmand
- Abstract要約: ブラックボックス性能試験のためのACTAと呼ばれる自動テスト生成手法を提案する。
ACTAはアクティブな学習に基づいており、テスト中のシステムのパフォーマンス特性を知るために、大量の履歴テストデータを必要としないことを意味します。
我々は,ベンチマークWebアプリケーション上でACTAを評価し,本手法がランダムテストに匹敵することを示す実験結果を得た。
- 参考スコア(独自算出の注目度): 2.179313476241343
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generating tests that can reveal performance issues in large and complex
software systems within a reasonable amount of time is a challenging task. On
one hand, there are numerous combinations of input data values to explore. On
the other hand, we have a limited test budget to execute tests. What makes this
task even more difficult is the lack of access to source code and the internal
details of these systems. In this paper, we present an automated test
generation method called ACTA for black-box performance testing. ACTA is based
on active learning, which means that it does not require a large set of
historical test data to learn about the performance characteristics of the
system under test. Instead, it dynamically chooses the tests to execute using
uncertainty sampling. ACTA relies on a conditional variant of generative
adversarial networks,and facilitates specifying performance requirements in
terms of conditions and generating tests that address those conditions.We have
evaluated ACTA on a benchmark web application, and the experimental results
indicate that this method is comparable with random testing, and two other
machine learning methods,i.e. PerfXRL and DN.
- Abstract(参考訳): 大規模で複雑なソフトウェアシステムのパフォーマンス上の問題を明らかにするテストを生成するのは、妥当な時間で実行できます。
一方で、探究すべき入力データ値の組み合わせはたくさんあります。
一方、テストを実行するためのテスト予算は限られています。
この作業がさらに難しいのは、ソースコードへのアクセスの欠如と、これらのシステムの内部詳細である。
本稿では,ブラックボックス性能試験のためのACTAと呼ばれる自動テスト生成手法を提案する。
actaはアクティブラーニングに基づいている。これは、テスト中のシステムのパフォーマンス特性を学ぶために、大量の履歴テストデータを必要としないことを意味する。
代わりに、不確実性サンプリングを使用して実行するテストを動的に選択する。
actaは、生成型adversarial networkの条件付き変種に依存しており、条件の観点で性能要求を特定し、これらの条件に対応するテストを生成するのが容易である。我々は、ベンチマークwebアプリケーションでactaを評価し、実験の結果、この手法がランダムテストと同等であることを示し、他の2つの機械学習手法、すなわち、他の2つの方法と同等であることを示してきた。
PerfXRLとDN。
関連論文リスト
- Prompt Optimization with EASE? Efficient Ordering-aware Automated Selection of Exemplars [66.823588073584]
大規模言語モデル(LLM)は、現実世界のアプリケーションで印象的な機能を示している。
これらの卓越した作品の品質は、パフォーマンスに大きな影響を与えます。
既存の方法は、先行注文がパフォーマンスに与える影響を適切に説明できない。
論文 参考訳(メタデータ) (2024-05-25T08:23:05Z) - Active Test-Time Adaptation: Theoretical Analyses and An Algorithm [51.84691955495693]
テスト時間適応(TTA)は、教師なし設定でストリーミングテストデータの分散シフトに対処する。
完全TTA設定内に能動学習を統合する能動テスト時間適応(ATTA)の新たな問題設定を提案する。
論文 参考訳(メタデータ) (2024-04-07T22:31:34Z) - Adaptive REST API Testing with Reinforcement Learning [54.68542517176757]
現在のテストツールは効率的な探索機構がなく、全ての操作とパラメータを等しく扱う。
現在のツールは、仕様にレスポンススキーマがない場合や、変種を示す場合に苦労している。
我々は、強化学習を取り入れた適応型REST APIテスト手法を提案し、探索中の操作を優先順位付けする。
論文 参考訳(メタデータ) (2023-09-08T20:27:05Z) - Validation of massively-parallel adaptive testing using dynamic control
matching [0.0]
現代のビジネスはしばしば同時に多数のA/B/nテストを実行し、多くのコンテンツバリエーションを同じメッセージにパッケージ化する。
本稿では, 連続試験適応条件下での各種試験の因果効果を解消する手法を提案する。
論文 参考訳(メタデータ) (2023-05-02T11:28:12Z) - Planning for Sample Efficient Imitation Learning [52.44953015011569]
現在の模倣アルゴリズムは、高い性能と高環境サンプル効率を同時に達成するのに苦労している。
本研究では,環境内サンプルの効率と性能を同時に達成できる計画型模倣学習手法であるEfficientImitateを提案する。
実験結果から,EIは性能と試料効率の両立を図った。
論文 参考訳(メタデータ) (2022-10-18T05:19:26Z) - ALBench: A Framework for Evaluating Active Learning in Object Detection [102.81795062493536]
本稿では、オブジェクト検出におけるアクティブラーニングを評価するために、ALBenchという名前のアクティブラーニングベンチマークフレームワークをコントリビュートする。
自動深層モデルトレーニングシステム上で開発されたこのALBenchフレームワークは、使いやすく、さまざまなアクティブな学習アルゴリズムと互換性があり、同じトレーニングおよびテストプロトコルを保証する。
論文 参考訳(メタデータ) (2022-07-27T07:46:23Z) - Hybrid Intelligent Testing in Simulation-Based Verification [0.0]
数百万のテストは、カバレッジの目標を達成するために必要かもしれない。
カバレッジ指向のテスト選択は、カバレッジフィードバックからバイアステストまで、最も効果的なテストへと学習する。
ノベルティ駆動検証は、以前の刺激とは異なる刺激を識別し、シミュレートすることを学ぶ。
論文 参考訳(メタデータ) (2022-05-19T13:22:08Z) - DeepOrder: Deep Learning for Test Case Prioritization in Continuous
Integration Testing [6.767885381740952]
この研究は、回帰機械学習に基づいて動作するディープラーニングベースのモデルであるDeepOrderを紹介している。
DeepOrderは、テスト実行の履歴記録に基づいて、以前のテストサイクルの任意の数からテストケースをランク付けする。
実験により, 深部ニューラルネットワークは, 単純な回帰モデルとして, 連続的な統合テストにおいて, テストケースの優先順位付けに効率的に利用できることを示した。
論文 参考訳(メタデータ) (2021-10-14T15:10:38Z) - TestRank: Bringing Order into Unlabeled Test Instances for Deep Learning
Tasks [14.547623982073475]
ディープラーニングシステムはテストやデバッグが難しいことで有名です。
テストコスト削減のために、テスト選択を行い、選択した“高品質”バグ修正テストインプットのみをラベル付けすることが不可欠である。
本稿では,未ラベルのテストインスタンスに,バグ検出機能,すなわちTestRankに従って順序を付ける新しいテスト優先順位付け手法を提案する。
論文 参考訳(メタデータ) (2021-05-21T03:41:10Z) - Online GANs for Automatic Performance Testing [0.10312968200748115]
GAN(Generative Adversarial Network)のオンライン版を利用した自動パフォーマンステストのための新しいアルゴリズムを提案する。
提案手法では、テスト中のシステムの事前のトレーニングセットやモデルを必要としない。
我々は,提案アルゴリズムが概念実証として機能し,GANの試験生成への応用に関する研究議論の火花となることを期待する。
論文 参考訳(メタデータ) (2021-04-21T06:03:27Z) - Dynamic Causal Effects Evaluation in A/B Testing with a Reinforcement
Learning Framework [68.96770035057716]
A/Bテスト(A/B Testing)は、新しい製品を製薬、技術、伝統産業の古い製品と比較するビジネス戦略である。
本稿では,オンライン実験においてA/Bテストを実施するための強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-05T10:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。