論文の概要: Certifying Robustness of Convolutional Neural Networks with Tight Linear
Approximation
- arxiv url: http://arxiv.org/abs/2211.09810v1
- Date: Sun, 13 Nov 2022 08:37:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 13:27:24.949346
- Title: Certifying Robustness of Convolutional Neural Networks with Tight Linear
Approximation
- Title(参考訳): タイト線形近似を用いた畳み込みニューラルネットワークのロバスト性証明
- Authors: Yuan Xiao, Tongtong Bai, Mingzheng Gu, Chunrong Fang, Zhenyu Chen
- Abstract要約: Ti-Linは、コナールニューラルネットワークのロバスト性検証のためのタイト線形近似手法である。
本稿では,S字型アクティベーション関数に対する新しい線形制約を提案する。
MNIST、CIFAR-10、Tiny ImageNetデータセットで訓練された48種類のCNNで評価した。
- 参考スコア(独自算出の注目度): 5.678314425261842
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The robustness of neural network classifiers is becoming important in the
safety-critical domain and can be quantified by robustness verification.
However, at present, efficient and scalable verification techniques are always
sound but incomplete. Therefore, the improvement of certified robustness bounds
is the key criterion to evaluate the superiority of robustness verification
approaches. In this paper, we present a Tight Linear approximation approach for
robustness verification of Convolutional Neural Networks(Ti-Lin). For general
CNNs, we first provide a new linear constraints for S-shaped activation
functions, which is better than both existing Neuron-wise Tightest and
Network-wise Tightest tools. We then propose Neuron-wise Tightest linear bounds
for Maxpool function. We implement Ti-Lin, the resulting verification method.
We evaluate it with 48 different CNNs trained on MNIST, CIFAR-10, and Tiny
ImageNet datasets. Experimental results show that Ti-Lin significantly
outperforms other five state-of-the-art methods(CNN-Cert, DeepPoly, DeepCert,
VeriNet, Newise). Concretely, Ti-Lin certifies much more precise robustness
bounds on pure CNNs with Sigmoid/Tanh/Arctan functions and CNNs with Maxpooling
function with at most 63.70% and 253.54% improvement, respectively.
- Abstract(参考訳): ニューラルネットワーク分類器のロバスト性は、安全臨界領域において重要になり、ロバスト性検証によって定量化できる。
しかし、現時点では効率的でスケーラブルな検証技術は常に健全だが不完全である。
したがって、ロバスト性検証手法の優位性を評価する上で、認定ロバスト性境界の改善が重要な基準である。
本稿では,畳み込みニューラルネットワーク(Ti-Lin)のロバスト性検証のためのタイト線形近似手法を提案する。
一般のCNNでは,S字型アクティベーション関数に対する線形制約が新たに提供され,既存のニューロンワイドタイトツールとネットワークワイドタイトツールより優れている。
次に,maxpool関数に対するニューロン方向の最も厳密な線形境界を提案する。
検証手法であるti-linを実装した。
MNIST、CIFAR-10、Tiny ImageNetデータセットで訓練された48種類のCNNで評価した。
実験の結果,Ti-Linは他の5つの最先端手法(CNN-Cert,DeepPoly,DeepCert,VeriNet,Newise)よりも優れていた。
具体的には、Ti-Lin は Sigmoid/Tanh/Arctan 関数を持つ純粋な CNN と Maxpooling 関数を持つ CNN の 63.70% と 253.54% の改善により、より正確な堅牢性境界を証明している。
関連論文リスト
- Computable Lipschitz Bounds for Deep Neural Networks [0.0]
我々は$l2$ノルムのために書かれた3つの既存の上限を分析する。
本稿では,フィードフォワード完全接続ニューラルネットワークと畳み込みニューラルネットワークの2つの新しい境界を提案する。
論文 参考訳(メタデータ) (2024-10-28T14:09:46Z) - Towards General Robustness Verification of MaxPool-based Convolutional Neural Networks via Tightening Linear Approximation [51.235583545740674]
MaxLinは、線形近似が厳密なMaxPoolベースのCNNの堅牢性検証器である。
我々は、MNIST、CIFAR-10、Tiny ImageNetデータセットでトレーニングされたLeNetやネットワークを含むオープンソースのベンチマークでMaxLinを評価した。
論文 参考訳(メタデータ) (2024-06-02T10:33:04Z) - Linearity Grafting: Relaxed Neuron Pruning Helps Certifiable Robustness [172.61581010141978]
証明可能な堅牢性は、安全クリティカルなシナリオでディープニューラルネットワーク(DNN)を採用する上で望ましい特性である。
線形性の適切なレベルを「グラフト」することで、神経細胞を戦略的に操作する新しいソリューションを提案する。
論文 参考訳(メタデータ) (2022-06-15T22:42:29Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Training Certifiably Robust Neural Networks with Efficient Local
Lipschitz Bounds [99.23098204458336]
認証された堅牢性は、安全クリティカルなアプリケーションにおいて、ディープニューラルネットワークにとって望ましい性質である。
提案手法は,MNISTおよびTinyNetデータセットにおける最先端の手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-11-02T06:44:10Z) - Second-Order Provable Defenses against Adversarial Attacks [63.34032156196848]
ネットワークの固有値が有界であれば、凸最適化を用いて$l$ノルムの証明を効率的に計算できることを示す。
認証精度は5.78%,44.96%,43.19%であった。
論文 参考訳(メタデータ) (2020-06-01T05:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。