論文の概要: Test Generation Strategies for Building Failure Models and Explaining
Spurious Failures
- arxiv url: http://arxiv.org/abs/2312.05631v1
- Date: Sat, 9 Dec 2023 18:36:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 19:34:09.569266
- Title: Test Generation Strategies for Building Failure Models and Explaining
Spurious Failures
- Title(参考訳): 失敗モデルの構築と余剰失敗の解説のためのテスト生成戦略
- Authors: Baharin Aliashrafi Jodat, Abhishek Chandar, Shiva Nejati, Mehrdad
Sabetzadeh
- Abstract要約: テスト入力は、テスト対象のシステムが故障している場合だけでなく、入力が無効または非現実的である場合も失敗する。
テストインプットに対して解釈可能なルールを推論し,重大な障害を引き起こす障害モデルを構築することを提案する。
提案手法は, 平均精度83%の故障モデルを生成する。
- 参考スコア(独自算出の注目度): 4.995172162560306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Test inputs fail not only when the system under test is faulty but also when
the inputs are invalid or unrealistic. Failures resulting from invalid or
unrealistic test inputs are spurious. Avoiding spurious failures improves the
effectiveness of testing in exercising the main functions of a system,
particularly for compute-intensive (CI) systems where a single test execution
takes significant time. In this paper, we propose to build failure models for
inferring interpretable rules on test inputs that cause spurious failures. We
examine two alternative strategies for building failure models: (1) machine
learning (ML)-guided test generation and (2) surrogate-assisted test
generation. ML-guided test generation infers boundary regions that separate
passing and failing test inputs and samples test inputs from those regions.
Surrogate-assisted test generation relies on surrogate models to predict labels
for test inputs instead of exercising all the inputs. We propose a novel
surrogate-assisted algorithm that uses multiple surrogate models
simultaneously, and dynamically selects the prediction from the most accurate
model. We empirically evaluate the accuracy of failure models inferred based on
surrogate-assisted and ML-guided test generation algorithms. Using case studies
from the domains of cyber-physical systems and networks, we show that our
proposed surrogate-assisted approach generates failure models with an average
accuracy of 83%, significantly outperforming ML-guided test generation and two
baselines. Further, our approach learns failure-inducing rules that identify
genuine spurious failures as validated against domain knowledge.
- Abstract(参考訳): テスト入力は、テスト中のシステムが故障しているときだけでなく、入力が無効または非現実的なときも失敗する。
無効または非現実的なテスト入力による失敗は急激です。
特に単一のテスト実行にかなりの時間を要する計算集約型(ci)システムでは、スプリアス障害を回避することで、システムの主機能を実行するテストの有効性が向上する。
本稿では,ミスの原因となるテスト入力の解釈可能なルールを推論するための障害モデルを構築することを提案する。
障害モデル構築のための代替戦略として,(1)機械学習(ml)誘導テスト生成と(2)サロゲート支援テスト生成の2つを検討した。
mlガイドテスト生成は、パスとフェールテスト入力を分離する境界領域を推定し、これらの領域からテスト入力をサンプルする。
surrogateによるテスト生成は、すべての入力を強制するのではなく、テスト入力のラベルを予測するためにsurrogateモデルに依存している。
本稿では,複数のサロゲートモデルを同時に利用し,最も正確なモデルから動的に予測を選択する新しいサロゲート支援アルゴリズムを提案する。
本研究では,サロゲート支援およびML誘導テスト生成アルゴリズムに基づいて推定された故障モデルの精度を実証的に評価する。
サイバーフィジカルシステムとネットワークのドメインのケーススタディを用いて,提案手法は平均83%の精度で障害モデルを生成し,ml誘導テスト生成と2つのベースラインよりも優れていることを示した。
さらに、このアプローチは、ドメイン知識に対する正当なスプリアスな失敗を識別する、障害誘発ルールを学習します。
関連論文リスト
- Context-Aware Testing: A New Paradigm for Model Testing with Large Language Models [49.06068319380296]
我々は,コンテキストを帰納バイアスとして用いて意味のあるモデル障害を探索するコンテキスト認識テスト(CAT)を導入する。
最初のCATシステムSMART Testingをインスタンス化し、大きな言語モデルを用いて、関連性があり、起こりうる失敗を仮説化します。
論文 参考訳(メタデータ) (2024-10-31T15:06:16Z) - Uncertainty-Calibrated Test-Time Model Adaptation without Forgetting [55.17761802332469]
テスト時間適応(TTA)は、与えられたモデルw.r.t.を任意のテストサンプルに適用することにより、トレーニングデータとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
事前の手法は各テストサンプルに対してバックプロパゲーションを実行するため、多くのアプリケーションに対して許容できない最適化コストがかかる。
本稿では, 有効サンプル選択基準を策定し, 信頼性および非冗長なサンプルを同定する, 効率的なアンチフォッティングテスト時間適応法を提案する。
論文 参考訳(メタデータ) (2024-03-18T05:49:45Z) - Deep anytime-valid hypothesis testing [29.273915933729057]
非パラメトリックなテスト問題に対する強力なシーケンシャルな仮説テストを構築するための一般的なフレームワークを提案する。
テスト・バイ・ベッティング・フレームワーク内で、機械学習モデルの表現能力を活用するための原則的なアプローチを開発する。
合成および実世界のデータセットに関する実証的な結果は、我々の一般的なフレームワークを用いてインスタンス化されたテストが、特殊なベースラインと競合することを示している。
論文 参考訳(メタデータ) (2023-10-30T09:46:19Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - TTAPS: Test-Time Adaption by Aligning Prototypes using Self-Supervision [70.05605071885914]
本研究では,単体テストサンプルに適用可能な自己教師付きトレーニングアルゴリズムSwaVの新たな改良を提案する。
ベンチマークデータセットCIFAR10-Cにおいて,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-05-18T05:43:06Z) - Machine Learning Testing in an ADAS Case Study Using
Simulation-Integrated Bio-Inspired Search-Based Testing [7.5828169434922]
Deeperは、ディープニューラルネットワークベースの車線保持システムをテストするための障害検出テストシナリオを生成する。
新たに提案されたバージョンでは、新しいバイオインスパイアされた検索アルゴリズム、遺伝的アルゴリズム(GA)、$(mu+lambda)$および$(mu,lambda)$進化戦略(ES)、およびParticle Swarm Optimization(PSO)を利用する。
評価の結果,Deeperで新たに提案したテストジェネレータは,以前のバージョンよりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-03-22T20:27:40Z) - Learn then Test: Calibrating Predictive Algorithms to Achieve Risk
Control [67.52000805944924]
Learn then Test (LTT)は、機械学習モデルを校正するフレームワークである。
私たちの主な洞察は、リスクコントロール問題を複数の仮説テストとして再設計することです。
我々は、コンピュータビジョンの詳細な実例を用いて、コア機械学習タスクの新しいキャリブレーション手法を提供するために、我々のフレームワークを使用します。
論文 参考訳(メタデータ) (2021-10-03T17:42:03Z) - Efficient and Effective Generation of Test Cases for Pedestrian
Detection -- Search-based Software Testing of Baidu Apollo in SVL [14.482670650074885]
本稿では,SVLシミュレータ内での自律走行プラットフォームであるBaidu Apolloの歩行者検出と緊急制動システムの試験について述べる。
本稿では,SVL環境におけるApolloの障害検出シナリオを生成する進化的自動テスト生成手法を提案する。
また,本手法の有効性と有効性を示すため,ベースラインランダム生成手法の結果も報告する。
論文 参考訳(メタデータ) (2021-09-16T13:11:53Z) - Distribution-Aware Testing of Neural Networks Using Generative Models [5.618419134365903]
ディープニューラルネットワーク(DNN)をコンポーネントとして持つソフトウェアの信頼性は、緊急に重要である。
最近の3つのテスト手法が, かなりの数の不正なテスト入力を生成することを示す。
テスト生成プロセスにおいて,テスト中のDNNモデルの有効な入力空間を組み込む手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T17:18:21Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。