論文の概要: Exposing Previously Undetectable Faults in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2106.00576v1
- Date: Tue, 1 Jun 2021 15:37:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 14:28:51.493931
- Title: Exposing Previously Undetectable Faults in Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークにおける従来検出不能な障害の露呈
- Authors: Isaac Dunn, Hadrien Pouget, Daniel Kroening and Tom Melham
- Abstract要約: 本稿では,他の手法では不可能なDNNの欠陥を見つける新しい手法を提案する。
生成機械学習を活用することで、高いレベルの特徴によって異なる新しいテストインプットを生成することができる。
提案手法は, 現状のDNNにおいて, 故意に注入された断層だけでなく, 新たな断層も検出できることを実証する。
- 参考スコア(独自算出の注目度): 11.20625929625154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing methods for testing DNNs solve the oracle problem by constraining
the raw features (e.g. image pixel values) to be within a small distance of a
dataset example for which the desired DNN output is known. But this limits the
kinds of faults these approaches are able to detect. In this paper, we
introduce a novel DNN testing method that is able to find faults in DNNs that
other methods cannot. The crux is that, by leveraging generative machine
learning, we can generate fresh test inputs that vary in their high-level
features (for images, these include object shape, location, texture, and
colour). We demonstrate that our approach is capable of detecting deliberately
injected faults as well as new faults in state-of-the-art DNNs, and that in
both cases, existing methods are unable to find these faults.
- Abstract(参考訳): DNNをテストするための既存の手法は、生の特徴(例えば)を制約することでオラクルの問題を解決する。
image pixel value) 所望のDNN出力が知られているデータセット例の小さな距離内にあること。
しかしこれは、これらのアプローチが検出できる障害の種類を制限する。
本稿では,他の手法では不可能なDNNの欠陥を見つけることができる新しいDNNテスト手法を提案する。
cruxは、生成的機械学習を利用することで、高レベルな特徴(画像の場合、オブジェクトの形、位置、テクスチャ、色など)に異なる新しいテスト入力を生成することができる、ということです。
我々は,本手法が故意に注入された障害や最新dnnの新しい障害を検知できることを示すとともに,既存の手法ではこれらの障害を見つけることができないことを実証する。
関連論文リスト
- Data-driven Verification of DNNs for Object Recognition [0.20482269513546453]
本稿では、勾配のない最適化を用いたディープニューラルネットワーク(DNN)の新しいテスト手法を提案する。
画像中の線路を画像中に検出する画像分割タスクに適用することにより,テストしたDNNの弱点の同定に成功していることを示す。
論文 参考訳(メタデータ) (2024-07-17T11:30:02Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - A Uniform Framework for Anomaly Detection in Deep Neural Networks [0.5099811144731619]
異常入力のクラスを3つ検討する。
1)DNNとは異なる分布からの自然な入力は、OOD(Out-of-Distribution)サンプルとして訓練される。
2) 攻撃者によるIDから生成された入力は、しばしば敵(AD)サンプルとして知られ、(3)無意味なデータから生成されたノイズ(NS)サンプルである。
事前学習したDNNに対して,これらすべての異常を検出することを目的としたフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-06T22:42:30Z) - Abstraction and Symbolic Execution of Deep Neural Networks with Bayesian
Approximation of Hidden Features [8.723426955657345]
本稿では,ディープニューラルネットワークとデータセットをベイズネットワークに抽象化する新しい抽象化手法を提案する。
我々は,DNNの隠蔽層から学習した隠れ特徴を特定するために,次元削減技術を利用している。
運用時間に稀な入力を検出するランタイム監視アプローチを導出できる。
論文 参考訳(メタデータ) (2021-03-05T14:28:42Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - NADS: Neural Architecture Distribution Search for Uncertainty Awareness [79.18710225716791]
機械学習(ML)システムは、トレーニングデータとは異なるディストリビューションから来るテストデータを扱う場合、しばしばOoD(Out-of-Distribution)エラーに遭遇する。
既存のOoD検出アプローチはエラーを起こしやすく、時にはOoDサンプルに高い確率を割り当てることもある。
本稿では,すべての不確実性を考慮したアーキテクチャの共通構築ブロックを特定するために,ニューラルアーキテクチャ分布探索(NADS)を提案する。
論文 参考訳(メタデータ) (2020-06-11T17:39:07Z) - SINVAD: Search-based Image Space Navigation for DNN Image Classifier
Test Input Generation [0.0]
ディープニューラルネットワーク(DNN)のテストは、安全クリティカルシステムで広く採用されているため、ますます重要になっている。
DNNの現在のテスト技術は、既存の入力に対する小さな局所摂動に依存している。
我々は,画像空間全体ではなく,真のトレーニング分布に類似した,妥当な入力空間を探索する新しい方法を提案する。
論文 参考訳(メタデータ) (2020-05-19T09:06:21Z) - Computing the Testing Error without a Testing Set [33.068870286618655]
テストデータセットを必要としないトレーニングとテストの間のパフォーマンスギャップを推定するアルゴリズムを導出します。
これによって、アクセスできないサンプルでも、DNNのテストエラーを計算できます。
論文 参考訳(メタデータ) (2020-05-01T15:35:50Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。