論文の概要: Towards General Robustness Verification of MaxPool-based Convolutional Neural Networks via Tightening Linear Approximation
- arxiv url: http://arxiv.org/abs/2406.00699v1
- Date: Sun, 2 Jun 2024 10:33:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 03:46:38.730603
- Title: Towards General Robustness Verification of MaxPool-based Convolutional Neural Networks via Tightening Linear Approximation
- Title(参考訳): 線形近似によるマックスプール型畳み込みニューラルネットワークの汎用ロバスト性検証に向けて
- Authors: Yuan Xiao, Shiqing Ma, Juan Zhai, Chunrong Fang, Jinyuan Jia, Zhenyu Chen,
- Abstract要約: MaxLinは、線形近似が厳密なMaxPoolベースのCNNの堅牢性検証器である。
我々は、MNIST、CIFAR-10、Tiny ImageNetデータセットでトレーニングされたLeNetやネットワークを含むオープンソースのベンチマークでMaxLinを評価した。
- 参考スコア(独自算出の注目度): 51.235583545740674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The robustness of convolutional neural networks (CNNs) is vital to modern AI-driven systems. It can be quantified by formal verification by providing a certified lower bound, within which any perturbation does not alter the original input's classification result. It is challenging due to nonlinear components, such as MaxPool. At present, many verification methods are sound but risk losing some precision to enhance efficiency and scalability, and thus, a certified lower bound is a crucial criterion for evaluating the performance of verification tools. In this paper, we present MaxLin, a robustness verifier for MaxPool-based CNNs with tight linear approximation. By tightening the linear approximation of the MaxPool function, we can certify larger certified lower bounds of CNNs. We evaluate MaxLin with open-sourced benchmarks, including LeNet and networks trained on the MNIST, CIFAR-10, and Tiny ImageNet datasets. The results show that MaxLin outperforms state-of-the-art tools with up to 110.60% improvement regarding the certified lower bound and 5.13 $\times$ speedup for the same neural networks. Our code is available at https://github.com/xiaoyuanpigo/maxlin.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)の堅牢性は、現代のAI駆動システムにとって不可欠である。
これは、任意の摂動が元の入力の分類結果を変えない、認定された下限を提供することで、形式的な検証によって定量化することができる。
MaxPoolのような非線形コンポーネントのため、これは難しい。
現在, 検証手法の多くは, 効率とスケーラビリティを高めるためにある程度の精度を失うリスクがあるため, 検証ツールの性能を評価する上では, 認定下限が重要な基準となっている。
本稿では, 線形近似を用いた MaxPool ベース CNN のロバスト性検証器である MaxLin について述べる。
MaxPool関数の線形近似を厳格化することにより、より大きな認定されたCNNの下限を証明できる。
我々は、MNIST、CIFAR-10、Tiny ImageNetデータセットでトレーニングされたLeNetやネットワークを含むオープンソースのベンチマークでMaxLinを評価した。
その結果、MaxLinは、認定された下位境界に関する最大110.60%の改善と、同じニューラルネットワークの5.13ドル\times$スピードアップにより、最先端のツールよりも優れていた。
私たちのコードはhttps://github.com/xiaoyuanpigo/maxlin.comから入手可能です。
関連論文リスト
- Certifying Robustness of Convolutional Neural Networks with Tight Linear
Approximation [5.678314425261842]
Ti-Linは、コナールニューラルネットワークのロバスト性検証のためのタイト線形近似手法である。
本稿では,S字型アクティベーション関数に対する新しい線形制約を提案する。
MNIST、CIFAR-10、Tiny ImageNetデータセットで訓練された48種類のCNNで評価した。
論文 参考訳(メタデータ) (2022-11-13T08:37:13Z) - Linearity Grafting: Relaxed Neuron Pruning Helps Certifiable Robustness [172.61581010141978]
証明可能な堅牢性は、安全クリティカルなシナリオでディープニューラルネットワーク(DNN)を採用する上で望ましい特性である。
線形性の適切なレベルを「グラフト」することで、神経細胞を戦略的に操作する新しいソリューションを提案する。
論文 参考訳(メタデータ) (2022-06-15T22:42:29Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Training Certifiably Robust Neural Networks with Efficient Local
Lipschitz Bounds [99.23098204458336]
認証された堅牢性は、安全クリティカルなアプリケーションにおいて、ディープニューラルネットワークにとって望ましい性質である。
提案手法は,MNISTおよびTinyNetデータセットにおける最先端の手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-11-02T06:44:10Z) - A Neural Network Approach for Online Nonlinear Neyman-Pearson
Classification [3.6144103736375857]
論文の中では,オンラインと非線形の両方で初となる新しいNeyman-Pearson(NP)分類器を提案する。
提案する分類器は、オンライン方式でバイナリラベル付きデータストリーム上で動作し、ユーザが指定し、制御可能な偽陽性率の検出能力を最大化する。
提案アルゴリズムは大規模データアプリケーションに適しており,実時間処理による偽陽性率制御性を実現している。
論文 参考訳(メタデータ) (2020-06-14T20:00:25Z) - Second-Order Provable Defenses against Adversarial Attacks [63.34032156196848]
ネットワークの固有値が有界であれば、凸最適化を用いて$l$ノルムの証明を効率的に計算できることを示す。
認証精度は5.78%,44.96%,43.19%であった。
論文 参考訳(メタデータ) (2020-06-01T05:55:18Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。