論文の概要: An ensemble meta-estimator to predict source code testability
- arxiv url: http://arxiv.org/abs/2208.09614v1
- Date: Sat, 20 Aug 2022 06:18:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 14:22:48.631006
- Title: An ensemble meta-estimator to predict source code testability
- Title(参考訳): ソースコードテスト可能性予測のためのアンサンブルメタ推定器
- Authors: Morteza Zakeri-Nasrabadi and Saeed Parsa
- Abstract要約: リファクタリング技術は、テスト容易性に影響を与えるソフトウェアメトリクスを改善することによって、テスト容易性を高めることができる。
この記事では、テストスイートのサイズとカバレッジの観点からクラステスト可能性を計算する数学的モデルを提供します。
テスト容易性の観点からのテスト結果の予測は、不要なコストを回避するために、テストに先立って行うべきである。
- 参考スコア(独自算出の注目度): 1.4213973379473652
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Software testing could be a lengthy and costly process, especially if the
software under test is not testable. Refactoring techniques may enhance
testability by improving the software metrics affecting testability. The
metrics are determined while building regression models learning how to relate
metrics computed for a source code to its testability. We identified 15
software metrics highly affecting testability while interpreting our
testability prediction model. Our experiments with 42 java classes reveal that
refactorings that improve these 15 metrics could enhance testability by an
average of 15.57%, besides improving some other quality attributes. Our
testability prediction model is trained to map source code metrics to test
effectiveness and efficiency as two significant ingredients of testable
software. Test effectiveness improves as the coverage gained by the test suite
increases. On the other hand, the test efficiency reduces as the size of the
test suite increases. This article offers a mathematical model to compute class
testability in terms of the size and coverage of the test suite. We use this
mathematical model to compute testability as the target of our testability
prediction model. The mathematical model requires the execution of the class
under test to compute test coverage, while our regression model measures
testability statically. Prediction of test results in terms of testability
should precede the test to avoid unnecessary costs. Our testability prediction
model has been trained and tested on 23,886 Java classes and 262 software
metrics. The learned model predicts testability with an R2 of 0.68 and a mean
squared error of 0.03.
- Abstract(参考訳): テスト中のソフトウェアがテストできない場合、ソフトウェアテストは長くてコストがかかるプロセスになり得る。
リファクタリングテクニックは、テスト容易性に影響を与えるソフトウェアメトリクスを改善することで、テスト容易性を高める可能性がある。
メトリクスは、ソースコードで計算されたメトリクスとそのテスト容易性との関係を学習する回帰モデルを構築しながら決定される。
テスト容易性予測モデルを解釈しながら、テスト容易性に影響を与える15のソフトウェアメトリクスを特定しました。
42のjavaクラスによる実験によると、これらの15のメトリクスを改善するリファクタリングは、他の品質特性の改善に加えて、平均15.57%のテスト容易性を向上できる。
テスト容易性予測モデルは、テスト可能なソフトウェアの2つの重要な要素として、ソースコードのメトリクスをテスト有効性と効率にマッピングするように訓練されています。
テストスイートによって得られるカバレッジが増加すると、テストの有効性が向上する。
一方、テストスイートのサイズが大きくなるにつれて、テスト効率が低下する。
この記事では、テストスイートのサイズとカバレッジの観点からクラステスト可能性を計算する数学的モデルを提供します。
この数学的モデルを用いて、テスト可能性予測モデルのターゲットとしてテスト可能性を計算する。
数学モデルはテストカバレッジを計算するためにテスト中のクラスの実行を必要としますが、回帰モデルはテスト容易性を静的に測定します。
テスト容易性の観点からのテスト結果の予測は、不要なコストを避けるためにテストに先行すべきである。
私たちのテスト容易性予測モデルは、23,886のJavaクラスと262のソフトウェアメトリクスでトレーニングされ、テストされています。
学習したモデルは、r2が 0.68、平均二乗誤差が 0.03 でテスト可能性を予測する。
関連論文リスト
- TestGenEval: A Real World Unit Test Generation and Test Completion Benchmark [24.14654309612826]
TestGenEvalは、1,210のコードから68,647のテストと、11の保守されたPythonリポジトリにまたがるテストファイルペアで構成されている。
初期テストのオーサリング、テストスイートの補完、コードカバレッジの改善をカバーしている。
パラメータは7Bから405Bまで様々である。
論文 参考訳(メタデータ) (2024-10-01T14:47:05Z) - Precise Error Rates for Computationally Efficient Testing [75.63895690909241]
本稿では,計算複雑性に着目した単純な対数-単純仮説テストの問題を再考する。
線形スペクトル統計に基づく既存の試験は、I型とII型の誤差率の間の最良のトレードオフ曲線を達成する。
論文 参考訳(メタデータ) (2023-11-01T04:41:16Z) - Effective Test Generation Using Pre-trained Large Language Models and
Mutation Testing [13.743062498008555]
大規模言語モデル(LLM)が生成するテストケースの有効性を,バグの発見の観点から改善するための MuTAP を導入する。
MuTAPは、プログラム・アンダー・テスト(PUT)の自然言語記述がない場合に有効なテストケースを生成することができる
提案手法は, 最大28%の人書きコードスニペットを検出できることを示す。
論文 参考訳(メタデータ) (2023-08-31T08:48:31Z) - From Static Benchmarks to Adaptive Testing: Psychometrics in AI Evaluation [60.14902811624433]
本稿では,静的評価手法から適応テストへのパラダイムシフトについて論じる。
これには、ベンチマークで各テスト項目の特性と価値を推定し、リアルタイムでアイテムを動的に調整することが含まれる。
我々は、AI評価にサイコメトリックを採用する現在のアプローチ、アドバンテージ、そして根底にある理由を分析します。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - Learning to predict test effectiveness [1.4213973379473652]
この記事では、テストがクラスをカバーできる範囲を、Coverageabilityと呼ばれる新しいメトリクスで予測する機械学習モデルを提供する。
各クラスで自動生成されるテストスイートのサイズとカバレッジの観点から,テストの有効性を評価する数学的モデルを提供する。
論文 参考訳(メタデータ) (2022-08-20T07:26:59Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - On the use of test smells for prediction of flaky tests [0.0]
不安定な検査は 検査結果の評価を妨げ コストを増大させる
既存のテストケース語彙の使用に基づくアプローチは、文脈に敏感であり、過度に適合する傾向がある。
フレキな検査の予測因子として, 試験臭の使用について検討した。
論文 参考訳(メタデータ) (2021-08-26T13:21:55Z) - TestRank: Bringing Order into Unlabeled Test Instances for Deep Learning
Tasks [14.547623982073475]
ディープラーニングシステムはテストやデバッグが難しいことで有名です。
テストコスト削減のために、テスト選択を行い、選択した“高品質”バグ修正テストインプットのみをラベル付けすることが不可欠である。
本稿では,未ラベルのテストインスタンスに,バグ検出機能,すなわちTestRankに従って順序を付ける新しいテスト優先順位付け手法を提案する。
論文 参考訳(メタデータ) (2021-05-21T03:41:10Z) - Double Perturbation: On the Robustness of Robustness and Counterfactual
Bias Evaluation [109.06060143938052]
テストデータセットを超えたモデル弱点を明らかにするための"ダブル摂動"フレームワークを提案する。
この枠組みを,モデルの頑健さと英語における反事実バイアスの分析に使用される2つの摂動に基づくアプローチに応用する。
論文 参考訳(メタデータ) (2021-04-12T06:57:36Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Cross-validation Confidence Intervals for Test Error [83.67415139421448]
この研究は、クロスバリデーションのための中心極限定理と、学習アルゴリズムの弱い安定性条件下での分散の一貫した推定器を開発する。
結果は、一般的な1対1のクロスバリデーションの選択にとって、初めてのものだ。
論文 参考訳(メタデータ) (2020-07-24T17:40:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。