論文の概要: Tightening Robustness Verification of MaxPool-based Neural Networks via Minimizing the Over-Approximation Zone
- arxiv url: http://arxiv.org/abs/2211.09810v2
- Date: Fri, 28 Mar 2025 08:45:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 15:30:29.791810
- Title: Tightening Robustness Verification of MaxPool-based Neural Networks via Minimizing the Over-Approximation Zone
- Title(参考訳): オーバー近似領域の最小化によるMaxPool系ニューラルネットワークのロバスト性検証
- Authors: Yuan Xiao, Yuchen Chen, Shiqing Ma, Chunrong Fang, Tongtong Bai, Mingzheng Gu, Yuxin Cheng, Yanwei Chen, Zhenyu Chen,
- Abstract要約: Ti-Linは、Tight Linear Approximationを用いたMaxPoolベースのCNNの堅牢性検証器である。
オープンソースのベンチマークを用いて,Ti-Linの検証フレームワークに対する有効性を評価する。
- 参考スコア(独自算出の注目度): 22.637113471004838
- License:
- Abstract: The robustness of neural network classifiers is important in the safety-critical domain and can be quantified by robustness verification. At present, efficient and scalable verification techniques are always sound but incomplete, and thus, the improvement of verified robustness results is the key criterion to evaluate the performance of incomplete verification approaches. The multi-variate function MaxPool is widely adopted yet challenging to verify. In this paper, we present Ti-Lin, a robustness verifier for MaxPool-based CNNs with Tight Linear Approximation. Following the sequel of minimizing the over-approximation zone of the non-linear function of CNNs, we are the first to propose the provably neuron-wise tightest linear bounds for the MaxPool function. By our proposed linear bounds, we can certify larger robustness results for CNNs. We evaluate the effectiveness of Ti-Lin on different verification frameworks with open-sourced benchmarks, including LeNet, PointNet, and networks trained on the MNIST, CIFAR-10, Tiny ImageNet and ModelNet40 datasets. Experimental results show that Ti-Lin significantly outperforms the state-of-the-art methods across all networks with up to 78.6% improvement in terms of the certified accuracy with almost the same time consumption as the fastest tool. Our code is available at https://github.com/xiaoyuanpigo/Ti-Lin-Hybrid-Lin.
- Abstract(参考訳): ニューラルネットワーク分類器のロバスト性は、安全臨界領域において重要であり、ロバスト性検証によって定量化することができる。
現在、効率的でスケーラブルな検証技術は常に健全であるが不完全であり、不完全検証手法の性能を評価する上では、検証堅牢性の改善が重要な基準となっている。
多変量関数MaxPoolは広く採用されているが、検証は困難である。
本稿では,Tight Linear Approximation を用いた MaxPool ベースの CNN 用ロバスト性検証器 Ti-Lin を提案する。
CNNの非線形関数の超近似領域の最小化の続編に続いて、我々はMaxPool関数に対して、証明可能なニューロンワイドな線形境界を初めて提案する。
提案した線形境界により、CNNに対するより大きなロバスト性結果が証明できる。
我々は、オープンソースのベンチマークで、LeNet、PointNet、MNIST、CIFAR-10、Tiny ImageNet、ModelNet40データセットでトレーニングされたネットワークを含む様々な検証フレームワークにおけるTi-Linの有効性を評価する。
実験結果から、Ti-Linは全ネットワークで最先端の手法よりも78.6%向上し、最速のツールとほぼ同じ時間消費で認証精度が向上していることがわかった。
私たちのコードはhttps://github.com/xiaoyuanpigo/Ti-Lin-Hybrid-Linで公開されています。
関連論文リスト
- Computable Lipschitz Bounds for Deep Neural Networks [0.0]
我々は$l2$ノルムのために書かれた3つの既存の上限を分析する。
本稿では,フィードフォワード完全接続ニューラルネットワークと畳み込みニューラルネットワークの2つの新しい境界を提案する。
論文 参考訳(メタデータ) (2024-10-28T14:09:46Z) - Towards General Robustness Verification of MaxPool-based Convolutional Neural Networks via Tightening Linear Approximation [51.235583545740674]
MaxLinは、線形近似が厳密なMaxPoolベースのCNNの堅牢性検証器である。
我々は、MNIST、CIFAR-10、Tiny ImageNetデータセットでトレーニングされたLeNetやネットワークを含むオープンソースのベンチマークでMaxLinを評価した。
論文 参考訳(メタデータ) (2024-06-02T10:33:04Z) - Linearity Grafting: Relaxed Neuron Pruning Helps Certifiable Robustness [172.61581010141978]
証明可能な堅牢性は、安全クリティカルなシナリオでディープニューラルネットワーク(DNN)を採用する上で望ましい特性である。
線形性の適切なレベルを「グラフト」することで、神経細胞を戦略的に操作する新しいソリューションを提案する。
論文 参考訳(メタデータ) (2022-06-15T22:42:29Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Training Certifiably Robust Neural Networks with Efficient Local
Lipschitz Bounds [99.23098204458336]
認証された堅牢性は、安全クリティカルなアプリケーションにおいて、ディープニューラルネットワークにとって望ましい性質である。
提案手法は,MNISTおよびTinyNetデータセットにおける最先端の手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-11-02T06:44:10Z) - Second-Order Provable Defenses against Adversarial Attacks [63.34032156196848]
ネットワークの固有値が有界であれば、凸最適化を用いて$l$ノルムの証明を効率的に計算できることを示す。
認証精度は5.78%,44.96%,43.19%であった。
論文 参考訳(メタデータ) (2020-06-01T05:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。