論文の概要: Fast Falsification of Neural Networks using Property Directed Testing
- arxiv url: http://arxiv.org/abs/2104.12418v1
- Date: Mon, 26 Apr 2021 09:16:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:59:12.497786
- Title: Fast Falsification of Neural Networks using Property Directed Testing
- Title(参考訳): プロパティ指向テストによるニューラルネットワークの高速改ざん
- Authors: Moumita Das, Rajarshi Ray, Swarup Kumar Mohalik, Ansuman Banerjee
- Abstract要約: 本稿では,反例の探索を指示するニューラルネットワークの偽造アルゴリズムを提案する。
提案アルゴリズムは, 微分自由サンプリングに基づく最適化手法を用いる。
フェールシフィケーション手順は、他の検証ツールが安全でないと報告しているすべての安全でないインスタンスを検出する。
- 参考スコア(独自算出の注目度): 0.1529342790344802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are now extensively used in perception, prediction and
control of autonomous systems. Their deployment in safety-critical systems
brings forth the need for verification techniques for such networks. As an
alternative to exhaustive and costly verification algorithms, lightweight
falsification algorithms have been heavily used to search for an input to the
system that produces an unsafe output, i.e., a counterexample to the safety of
the system. In this work, we propose a falsification algorithm for neural
networks that directs the search for a counterexample, guided by a safety
property specification. Our algorithm uses a derivative-free sampling-based
optimization method. We evaluate our algorithm on 45 trained neural network
benchmarks of the ACAS Xu system against 10 safety properties. We show that our
falsification procedure detects all the unsafe instances that other
verification tools also report as unsafe. Moreover, in terms of performance,
our falsification procedure identifies most of the unsafe instances faster, in
comparison to the state-of-the-art verification tools for feed-forward neural
networks such as NNENUM and Neurify and in many instances, by orders of
magnitude.
- Abstract(参考訳): ニューラルネットワークは現在、自律システムの認識、予測、制御に広く使われている。
彼らの安全クリティカルなシステムへの展開は、そのようなネットワークの検証技術の必要性をもたらす。
徹底的でコストのかかる検証アルゴリズムの代替として、軽量のファルシフィケーションアルゴリズムは、安全でない出力、すなわちシステムの安全性に対する反例を生成するシステムへの入力を探索するために多用されている。
本研究では,安全特性仕様に導かれる反例の探索を指示するニューラルネットワークの偽造アルゴリズムを提案する。
本アルゴリズムは, 微分自由サンプリングに基づく最適化手法を用いる。
acas xuシステムの45個のニューラルネットワークベンチマークを10個の安全性特性に対して評価した。
フェールシフィケーション手順は、他の検証ツールが安全でないと報告しているすべての安全でないインスタンスを検出する。
さらに,フェーシフィケーション手法は,NNENUMやNeurifyなどのフィードフォワードニューラルネットワークに対する最先端の検証ツールと比較して,安全でないインスタンスの大部分を桁違いに高速に識別する。
関連論文リスト
- The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Safety Verification of Neural Network Control Systems Using Guaranteed
Neural Network Model Reduction [3.0839245814393728]
モデル縮小精度の概念は、ニューラルネットワークの出力と縮小サイズバージョンの間の保証された距離を記述するために提案される。
モデル削減精度を正確に計算するために,到達可能性に基づくアルゴリズムを提案する。
元のシステムの到達可能な集合を計算するアルゴリズムが開発され、より計算効率のよい安全性検証プロセスをサポートすることができる。
論文 参考訳(メタデータ) (2023-01-17T03:25:57Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Automated Repair of Neural Networks [0.26651200086513094]
安全でないNNの安全仕様を修復するためのフレームワークを提案する。
提案手法では,重み値のいくつかを修正して,新しい安全なNN表現を探索することができる。
我々は,提案するフレームワークが安全なNNを実現する能力を示す広範な実験を行った。
論文 参考訳(メタデータ) (2022-07-17T12:42:24Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Towards Repairing Neural Networks Correctly [6.600380575920419]
本稿では,ニューラルネットワークの正確性を保証するための実行時検証手法を提案する。
実験結果から,本手法は特性を満たすことが保証されたニューラルネットワークを効果的に生成することが示された。
論文 参考訳(メタデータ) (2020-12-03T12:31:07Z) - Enabling certification of verification-agnostic networks via
memory-efficient semidefinite programming [97.40955121478716]
本稿では,ネットワークアクティベーションの総数にのみ線形なメモリを必要とする一階二重SDPアルゴリズムを提案する。
L-inf の精度は 1% から 88% ,6% から 40% に改善した。
また,変分オートエンコーダの復号器に対する2次安定性仕様の厳密な検証を行った。
論文 参考訳(メタデータ) (2020-10-22T12:32:29Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z) - Exploiting Verified Neural Networks via Floating Point Numerical Error [15.639601066641099]
検証者は、ニューラルネットワークが空間内のすべての入力に対して特定の特性を保証するかどうかに答えようとしている。
浮動小数点誤差の無視は、実際に体系的に活用できる不健全な検証につながることを示す。
論文 参考訳(メタデータ) (2020-03-06T03:58:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。