論文の概要: Scalable Quantitative Verification For Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2002.06864v2
- Date: Tue, 23 Mar 2021 10:25:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 11:58:07.928028
- Title: Scalable Quantitative Verification For Deep Neural Networks
- Title(参考訳): 深層ニューラルネットワークのためのスケーラブルな定量的検証
- Authors: Teodora Baluta, Zheng Leong Chua, Kuldeep S. Meel and Prateek Saxena
- Abstract要約: ディープニューラルネットワーク(DNN)のためのテスト駆動検証フレームワークを提案する。
本手法は,形式的確率特性の健全性が証明されるまで,十分な試験を行う。
われわれの研究は、現実世界のディープニューラルネットワークが捉えた分布の性質を、証明可能な保証で検証する方法を開拓している。
- 参考スコア(独自算出の注目度): 44.570783946111334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the functional success of deep neural networks (DNNs), their
trustworthiness remains a crucial open challenge. To address this challenge,
both testing and verification techniques have been proposed. But these existing
techniques provide either scalability to large networks or formal guarantees,
not both. In this paper, we propose a scalable quantitative verification
framework for deep neural networks, i.e., a test-driven approach that comes
with formal guarantees that a desired probabilistic property is satisfied. Our
technique performs enough tests until soundness of a formal probabilistic
property can be proven. It can be used to certify properties of both
deterministic and randomized DNNs. We implement our approach in a tool called
PROVERO and apply it in the context of certifying adversarial robustness of
DNNs. In this context, we first show a new attack-agnostic measure of
robustness which offers an alternative to purely attack-based methodology of
evaluating robustness being reported today. Second, PROVERO provides
certificates of robustness for large DNNs, where existing state-of-the-art
verification tools fail to produce conclusive results. Our work paves the way
forward for verifying properties of distributions captured by real-world deep
neural networks, with provable guarantees, even where testers only have
black-box access to the neural network.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の機能的な成功にもかかわらず、信頼性は依然として重要なオープンチャレンジである。
この課題に対処するため、テストと検証の両方の手法が提案されている。
しかし、これらの既存の技術は、大規模ネットワークへのスケーラビリティまたは形式的保証を提供する。
本稿では,ディープニューラルネットワークのためのスケーラブルな定量的検証フレームワーク,すなわち,所望の確率的特性が満たされる形式的保証を伴うテスト駆動アプローチを提案する。
本手法は,形式的確率特性の健全性を証明するまで十分な試験を行う。
決定論的およびランダム化されたDNNの特性の証明に使用できる。
本稿では,この手法をProperVEROというツールに実装し,DNNの対角的堅牢性を証明する文脈に適用する。
この文脈で、我々はまず、現在報告されているロバスト性を評価する純粋にアタックベースの方法論の代替となる、ロバストネスのアタック非依存な新しい尺度を示す。
第二に、PRVEROは大規模なDNNに対して堅牢性の証明書を提供する。
我々の研究は、実世界のディープニューラルネットワークが捉えた分布の特性を検証し、証明可能な保証とともに、テスト担当者がニューラルネットワークへのブラックボックスアクセスしか持たない状況でも検証する道のりを拓いている。
関連論文リスト
- FairQuant: Certifying and Quantifying Fairness of Deep Neural Networks [6.22084835644296]
本稿では,ディープニューラルネットワーク(DNN)の個人的公正性を正式に証明し,定量化する手法を提案する。
個人的公正性は、法的に保護された属性(例えば、性別や人種)を除いて同一の2つの個人が同じ処置を受けることを保証している。
提案手法を実装し,4つの人気フェアネス研究データセットを用いて評価した。
論文 参考訳(メタデータ) (2024-09-05T03:36:05Z) - VNN: Verification-Friendly Neural Networks with Hard Robustness Guarantees [3.208888890455612]
VNN(Verification-Friendly Neural Networks)を生成するための新しいフレームワークを提案する。
本稿では,予測性能と検証親和性とのバランスをとるための学習後最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-15T12:39:27Z) - Enumerating Safe Regions in Deep Neural Networks with Provable
Probabilistic Guarantees [86.1362094580439]
安全プロパティとDNNが与えられた場合、安全であるプロパティ入力領域のすべての領域の集合を列挙する。
この問題の #P-hardness のため,epsilon-ProVe と呼ばれる効率的な近似法を提案する。
提案手法は, 許容限界の統計的予測により得られた出力可到達集合の制御可能な過小評価を利用する。
論文 参考訳(メタデータ) (2023-08-18T22:30:35Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Data-Driven Assessment of Deep Neural Networks with Random Input
Uncertainty [14.191310794366075]
我々は,ネットワーク出力の安全性を同時に証明し,ローカライズ可能なデータ駆動最適化手法を開発した。
深部ReLUネットワークにおける提案手法の有効性とトラクタビリティを実験的に実証した。
論文 参考訳(メタデータ) (2020-10-02T19:13:35Z) - Toward Reliable Models for Authenticating Multimedia Content: Detecting
Resampling Artifacts With Bayesian Neural Networks [9.857478771881741]
信頼性を重視した法医学的アルゴリズムの再設計に向けた第一歩を踏み出します。
本稿では,ディープニューラルネットワークのパワーとベイズフレームワークの厳密な確率的定式化を組み合わせたベイズニューラルネットワーク(BNN)を提案する。
BNNは、最先端の検出性能と、配布外サンプルを検出する優れた能力を得る。
論文 参考訳(メタデータ) (2020-07-28T11:23:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。