論文の概要: Interpreting Robustness Proofs of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2301.13845v1
- Date: Tue, 31 Jan 2023 18:41:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 15:26:42.602801
- Title: Interpreting Robustness Proofs of Deep Neural Networks
- Title(参考訳): 深部ニューラルネットワークのロバスト性証明の解釈
- Authors: Debangshu Banerjee, Avaljot Singh, Gagandeep Singh
- Abstract要約: 我々は、証明の人間の理解可能な解釈を生成するための概念、アルゴリズム、表現を開発する。
標準的なDNNの証明は素早い入力機能に依存しているのに対し、DNNの証明は意味論的に意味のある特徴でさえも確実に堅牢なフィルタリングを行うように訓練された。
- 参考スコア(独自算出の注目度): 2.093287944284448
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years numerous methods have been developed to formally verify the
robustness of deep neural networks (DNNs). Though the proposed techniques are
effective in providing mathematical guarantees about the DNNs behavior, it is
not clear whether the proofs generated by these methods are
human-interpretable. In this paper, we bridge this gap by developing new
concepts, algorithms, and representations to generate human understandable
interpretations of the proofs. Leveraging the proposed method, we show that the
robustness proofs of standard DNNs rely on spurious input features, while the
proofs of DNNs trained to be provably robust filter out even the semantically
meaningful features. The proofs for the DNNs combining adversarial and provably
robust training are the most effective at selectively filtering out spurious
features as well as relying on human-understandable input features.
- Abstract(参考訳): 近年,ディープニューラルネットワーク(DNN)の堅牢性を正式に検証する手法が数多く開発されている。
提案手法は, DNNの挙動に関する数学的保証を提供するのに有効であるが, これらの手法によって生成された証明が人間の解釈可能かどうかは不明である。
本稿では,このギャップを新しい概念,アルゴリズム,表現によって埋めて,人間の理解可能な証明解釈を生成する。
提案手法を応用して,標準的なDNNの頑健性証明は素早い入力機能に依存し,DNNの証明は意味論的に意味のある特徴でさえも確実に頑健であることを示す。
敵意と証明可能なロバストなトレーニングを組み合わせたdnnの証明は、スプリアスな特徴を選択的に排除し、人間の理解可能な入力機能に依存するのに最も効果的である。
関連論文リスト
- Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Theoretical Analysis of Robust Overfitting for Wide DNNs: An NTK
Approach [8.994430921243767]
Adversarial Training (AT)は、ディープニューラルネットワーク(DNN)の堅牢性を高めるための標準的手法である
我々は, ニューラル・タンジェント・カーネル(NTK)理論をATに非自明に拡張し, 線形化されたDNNによって逆向きに訓練されたワイドDNNを適切に近似できることを証明する。
正方形損失の場合、線形化DNNの閉形式ATダイナミクスが導出され、新たなAT退化現象が明らかになる。
論文 参考訳(メタデータ) (2023-10-09T19:40:25Z) - OccRob: Efficient SMT-Based Occlusion Robustness Verification of Deep
Neural Networks [7.797299214812479]
Occlusionは、ディープニューラルネットワーク(DNN)に対する一般的かつ容易に実現可能なセマンティック摂動である
DNNを騙していくつかのセグメントを隠蔽することで入力画像を誤分類し、おそらく深刻なエラーを引き起こす可能性がある。
DNNの既存のロバスト性検証アプローチは、非意味的な摂動に重点を置いている。
論文 参考訳(メタデータ) (2023-01-27T18:54:00Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Towards Formal Approximated Minimal Explanations of Neural Networks [0.0]
ディープニューラルネットワーク(DNN)は現在、多くのドメインで使用されている。
DNNは「ブラックボックス」であり、人間には解釈できない。
そこで本研究では,最小限の説明を求めるための効率的な検証手法を提案する。
論文 参考訳(メタデータ) (2022-10-25T11:06:37Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Scalable Quantitative Verification For Deep Neural Networks [44.570783946111334]
ディープニューラルネットワーク(DNN)のためのテスト駆動検証フレームワークを提案する。
本手法は,形式的確率特性の健全性が証明されるまで,十分な試験を行う。
われわれの研究は、現実世界のディープニューラルネットワークが捉えた分布の性質を、証明可能な保証で検証する方法を開拓している。
論文 参考訳(メタデータ) (2020-02-17T09:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。