論文の概要: Accelerating Robustness Verification of Deep Neural Networks Guided by
Target Labels
- arxiv url: http://arxiv.org/abs/2007.08520v2
- Date: Mon, 27 Jul 2020 00:04:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 22:22:38.791011
- Title: Accelerating Robustness Verification of Deep Neural Networks Guided by
Target Labels
- Title(参考訳): ターゲットラベルによるディープニューラルネットワークのロバスト性検証の高速化
- Authors: Wenjie Wan, Zhaodi Zhang, Yiwei Zhu, Min Zhang, Fu Song
- Abstract要約: ディープニューラルネットワーク(DNN)は、自律運転や医療診断など、多くの安全クリティカルなアプリケーションの主要なコンポーネントとなっている。
DNNは、入力に対する小さな摂動が誤った予測をもたらすような敵の例に感受性があるため、ロバスト性に悩まされる。
本稿では,ロバスト性検証を目標ラベルで導くことによって,ロバスト性検証手法を高速化する手法を提案する。
- 参考スコア(独自算出の注目度): 8.9960048245668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) have become key components of many
safety-critical applications such as autonomous driving and medical diagnosis.
However, DNNs have been shown suffering from poor robustness because of their
susceptibility to adversarial examples such that small perturbations to an
input result in misprediction. Addressing to this concern, various approaches
have been proposed to formally verify the robustness of DNNs. Most of these
approaches reduce the verification problem to optimization problems of
searching an adversarial example for a given input so that it is not correctly
classified to the original label. However, they are limited in accuracy and
scalability. In this paper, we propose a novel approach that can accelerate the
robustness verification techniques by guiding the verification with target
labels. The key insight of our approach is that the robustness verification
problem of DNNs can be solved by verifying sub-problems of DNNs, one per target
label. Fixing the target label during verification can drastically reduce the
search space and thus improve the efficiency. We also propose an approach by
leveraging symbolic interval propagation and linear relaxation techniques to
sort the target labels in terms of chances that adversarial examples exist.
This often allows us to quickly falsify the robustness of DNNs and the
verification for remaining target labels could be avoided. Our approach is
orthogonal to, and can be integrated with, many existing verification
techniques. For evaluation purposes, we integrate it with three recent
promising DNN verification tools, i.e., MipVerify, DeepZ, and Neurify.
Experimental results show that our approach can significantly improve these
tools by 36X speedup when the perturbation distance is set in a reasonable
range.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、自律運転や医療診断など、多くの安全クリティカルなアプリケーションの主要なコンポーネントとなっている。
しかし、DNNは、入力に対する小さな摂動が誤った予測をもたらすような敵の例に感受性があることから、弱い堅牢性に悩まされている。
この懸念に対処するため、DNNの堅牢性を正式に検証するための様々なアプローチが提案されている。
これらのアプローチの多くは、元のラベルに正しく分類されないように、与えられた入力の逆例を探索する際の最適化問題に対する検証問題を減らしている。
しかし、精度とスケーラビリティに制限がある。
本稿では,対象ラベルによる検証を導くことによって,ロバスト性検証手法を高速化する手法を提案する。
提案手法の重要な洞察は、DNNのロバスト性検証問題は、DNNのサブプロブレムを1つのターゲットラベルごとに検証することで解決できるということである。
検証中にターゲットラベルを固定すると、検索スペースが大幅に減少し、効率が向上する。
また,記号的間隔伝播と線形緩和手法を利用して,敵対的事例が存在する確率で対象ラベルをソートする手法を提案する。
これにより、DNNのロバスト性を迅速に実現することができ、残りのターゲットラベルの検証を回避できます。
我々のアプローチは、既存の多くの検証技術と直交し、統合することができる。
評価のために、最近約束された3つのDNN検証ツール(MipVerify、DeepZ、Neurify)と統合する。
実験の結果,摂動距離が合理的な範囲に設定された場合,これらのツールを36倍高速化できることがわかった。
関連論文リスト
- Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Dynamics-Aware Loss for Learning with Label Noise [73.75129479936302]
ディープニューラルネットワーク(DNN)にラベルノイズが深刻な脅威をもたらす
本稿では,この問題を解決するためにDAL(Dynamics-Aware Los)を提案する。
詳細な理論的解析と広範な実験結果の両方が,本手法の優位性を示している。
論文 参考訳(メタデータ) (2023-03-21T03:05:21Z) - OccRob: Efficient SMT-Based Occlusion Robustness Verification of Deep
Neural Networks [7.797299214812479]
Occlusionは、ディープニューラルネットワーク(DNN)に対する一般的かつ容易に実現可能なセマンティック摂動である
DNNを騙していくつかのセグメントを隠蔽することで入力画像を誤分類し、おそらく深刻なエラーを引き起こす可能性がある。
DNNの既存のロバスト性検証アプローチは、非意味的な摂動に重点を置いている。
論文 参考訳(メタデータ) (2023-01-27T18:54:00Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - GLENet: Boosting 3D Object Detectors with Generative Label Uncertainty Estimation [70.75100533512021]
本稿では,対象物の潜在的可算有界箱の多様性として,ラベルの不確実性問題を定式化する。
本稿では,条件付き変分オートエンコーダを応用した生成フレームワークであるGLENetを提案する。
GLENetが生成するラベルの不確実性はプラグアンドプレイモジュールであり、既存のディープ3D検出器に便利に統合することができる。
論文 参考訳(メタデータ) (2022-07-06T06:26:17Z) - Abstraction and Refinement: Towards Scalable and Exact Verification of
Neural Networks [9.85360493553261]
ディープニューラルネットワーク(DNN)の実践はますます進んでいるが、ロバストさの欠如により、安全クリティカルなドメインへの応用が妨げられている。
本稿では,スケーラブルで正確なDNN検証のための新しい抽象化・リファインメント手法を提案する。
論文 参考訳(メタデータ) (2022-07-02T07:04:20Z) - Neural Network Verification with Proof Production [7.898605407936655]
そこで本研究では,Simplex ベースの DNN 検証器を実証生産能力で拡張するための新しいメカニズムを提案する。
我々の証明生産は、よく知られたファルカスの補題の効率的な適応に基づいている。
航空機衝突回避のための安全クリティカルシステムの評価は, ほぼすべてのケースにおいて, 証明生産が成功することを示すものである。
論文 参考訳(メタデータ) (2022-06-01T14:14:37Z) - Verification-Aided Deep Ensemble Selection [4.290931412096984]
ディープニューラルネットワーク(DNN)は、様々な複雑なタスクを実現するための選択技術となっている。
正しく分類された入力に対する知覚できない摂動でさえ、DNNによる誤分類につながる可能性がある。
本稿では,同時エラーの少ないアンサンブル構成を同定するための方法論を考案する。
論文 参考訳(メタデータ) (2022-02-08T14:36:29Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。