論文の概要: UR4NNV: Neural Network Verification, Under-approximation Reachability
Works!
- arxiv url: http://arxiv.org/abs/2401.12550v1
- Date: Tue, 23 Jan 2024 08:19:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 16:33:07.656479
- Title: UR4NNV: Neural Network Verification, Under-approximation Reachability
Works!
- Title(参考訳): UR4NNV: ニューラルネットワークの検証、アンダー近似の到達性!
- Authors: Zhen Liang, Taoran Wu, Ran Zhao, Bai Xue, Ji Wang, Wenjing Yang,
Shaojun Deng and Wanwei Liu
- Abstract要約: 本報告では,DNN 検証にアンダー近似リーチビリティ解析を利用するUR4NNV 検証フレームワークを提案する。
それぞれのエポックにおいて、UR4NNVはリーチブル集合のサブポリトープをアンダーアロキシメートし、与えられた性質に対してこのポリトープを検証する。
- 参考スコア(独自算出の注目度): 5.0015602549417935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, formal verification of deep neural networks (DNNs) has garnered
considerable attention, and over-approximation based methods have become
popular due to their effectiveness and efficiency. However, these strategies
face challenges in addressing the "unknown dilemma" concerning whether the
exact output region or the introduced approximation error violates the property
in question. To address this, this paper introduces the UR4NNV verification
framework, which utilizes under-approximation reachability analysis for DNN
verification for the first time. UR4NNV focuses on DNNs with Rectified Linear
Unit (ReLU) activations and employs a binary tree branch-based
under-approximation algorithm. In each epoch, UR4NNV under-approximates a
sub-polytope of the reachable set and verifies this polytope against the given
property. Through a trial-and-error approach, UR4NNV effectively falsifies DNN
properties while providing confidence levels when reaching verification epoch
bounds and failing falsifying properties. Experimental comparisons with
existing verification methods demonstrate the effectiveness and efficiency of
UR4NNV, significantly reducing the impact of the "unknown dilemma".
- Abstract(参考訳): 近年,ディープニューラルネットワーク (DNN) の形式的検証が注目され,その有効性と効率性から過剰近似に基づく手法が普及している。
しかし、これらの戦略は、正確な出力領域や導入した近似誤差が問題となる性質に反するかどうかに関して「未知のジレンマ」に対処する際の課題に直面している。
そこで本研究では,DNN検証において,近似下到達可能性解析を初めて利用するUR4NNV検証フレームワークを提案する。
UR4NNVは、Rectified Linear Unit (ReLU) アクティベートによるDNNに焦点を当て、バイナリツリーブランチに基づくアンダー近似アルゴリズムを採用している。
それぞれのエポックにおいて、UR4NNVはリーチブル集合のサブポリトープをアンダーアロキシメートし、与えられた性質に対してこのポリトープを検証する。
UR4NNVは、試行錯誤アプローチにより、有効にDNN特性をファルシフィケートし、検証エポック境界に達し、ファルシフィケーション特性に失敗する際の信頼性レベルを提供する。
既存の検証手法と比較して、UR4NNVの有効性と効率が示され、「未知のジレンマ」の影響を著しく低減した。
関連論文リスト
- Causal GNNs: A GNN-Driven Instrumental Variable Approach for Causal Inference in Networks [0.0]
CgNNは、隠れた共同設立者のバイアスを緩和し、因果効果の推定を改善するための新しいアプローチである。
以上の結果から,CgNNは隠れた共同創設者バイアスを効果的に軽減し,複雑なネットワークデータにおける因果推論のための堅牢なGNN駆動IVフレームワークを提供することが示された。
論文 参考訳(メタデータ) (2024-09-13T05:39:00Z) - Harnessing Neuron Stability to Improve DNN Verification [42.65507402735545]
我々は最近提案されたDPLLベースの制約DNN検証手法の拡張であるVeriStableを提案する。
完全接続型フィードネットワーク(FNN)、畳み込み型ニューラルネットワーク(CNN)、残留型ネットワーク(ResNet)など、さまざまな課題のあるベンチマークにおいてVeriStableの有効性を評価する。
予備的な結果は、VeriStableは、VNN-COMPの第1および第2のパフォーマーである$alpha$-$beta$-CROWNやMN-BaBなど、最先端の検証ツールよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-19T23:48:04Z) - Enumerating Safe Regions in Deep Neural Networks with Provable
Probabilistic Guarantees [86.1362094580439]
安全プロパティとDNNが与えられた場合、安全であるプロパティ入力領域のすべての領域の集合を列挙する。
この問題の #P-hardness のため,epsilon-ProVe と呼ばれる効率的な近似法を提案する。
提案手法は, 許容限界の統計的予測により得られた出力可到達集合の制御可能な過小評価を利用する。
論文 参考訳(メタデータ) (2023-08-18T22:30:35Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Incremental Verification of Neural Networks [3.9661031279983896]
本稿では,新しい理論,データ構造,アルゴリズムの設計に基づく,インクリメンタルかつ完全なDNN検証のための新しい汎用フレームワークを提案する。
我々の貢献はIVANというツールに実装され、MNISTとCIFAR10の分類に挑戦する上での全体的な幾何平均スピードアップの2.4倍、最先端のベースライン上でのACAS-XU分類器の幾何平均スピードアップの3.8倍となる。
論文 参考訳(メタデータ) (2023-04-04T15:28:22Z) - OccRob: Efficient SMT-Based Occlusion Robustness Verification of Deep
Neural Networks [7.797299214812479]
Occlusionは、ディープニューラルネットワーク(DNN)に対する一般的かつ容易に実現可能なセマンティック摂動である
DNNを騙していくつかのセグメントを隠蔽することで入力画像を誤分類し、おそらく深刻なエラーを引き起こす可能性がある。
DNNの既存のロバスト性検証アプローチは、非意味的な摂動に重点を置いている。
論文 参考訳(メタデータ) (2023-01-27T18:54:00Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Sound and Complete Verification of Polynomial Networks [55.9260539566555]
PN(Polynomial Networks)は、最近顔と画像の認識において有望な性能を示した。
分岐とバウンド(BaB)技術に基づくReLUニューラルネットワーク(NN)上の既存の検証アルゴリズムは、PN検証に自明に適用できない。
我々は、VPNと呼ばれるグローバルコンバージェンス保証のためのBaBを備えた新しいバウンダリング手法を考案した。
論文 参考訳(メタデータ) (2022-09-15T11:50:43Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Efficient Exact Verification of Binarized Neural Networks [15.639601066641099]
バイナリニューラルネットワーク(BNN)は、同等の堅牢性を提供し、正確かつはるかに効率的な検証を可能にする。
我々は,BNNの効率的かつ正確な検証を行うための新しいシステムであるEEVを提案する。
非自明な畳み込みBNNのL-inf-bounded adversarial robustnessに対する最初の正確な検証結果を示すことにより、脳波の有効性を実証する。
論文 参考訳(メタデータ) (2020-05-07T16:34:30Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。