論文の概要: Improving the Tightness of Convex Relaxation Bounds for Training
Certifiably Robust Classifiers
- arxiv url: http://arxiv.org/abs/2002.09766v1
- Date: Sat, 22 Feb 2020 20:19:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 18:52:32.733138
- Title: Improving the Tightness of Convex Relaxation Bounds for Training
Certifiably Robust Classifiers
- Title(参考訳): ロバスト分類器の訓練のための凸緩和境界の厚さ改善
- Authors: Chen Zhu, Renkun Ni, Ping-yeh Chiang, Hengduo Li, Furong Huang, Tom
Goldstein
- Abstract要約: 凸緩和は、ノルムバウンドの敵攻撃に対するトレーニングとニューラルネットワークの認証に有効であるが、認証と経験的堅牢性の間に大きなギャップを残している。
非正規化ベースラインよりも高い精度でトレーニング可能なニューラルネットワークのトレーニングに使用できる2つの実験を提案する。
- 参考スコア(独自算出の注目度): 72.56180590447835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convex relaxations are effective for training and certifying neural networks
against norm-bounded adversarial attacks, but they leave a large gap between
certifiable and empirical robustness. In principle, convex relaxation can
provide tight bounds if the solution to the relaxed problem is feasible for the
original non-convex problem. We propose two regularizers that can be used to
train neural networks that yield tighter convex relaxation bounds for
robustness. In all of our experiments, the proposed regularizers result in
higher certified accuracy than non-regularized baselines.
- Abstract(参考訳): 凸緩和は、ノルムバウンドの敵攻撃に対するニューラルネットワークのトレーニングと認証に有効であるが、認証と経験的堅牢性の間に大きなギャップを残している。
原則として、凸緩和は、緩和された問題の解が元の非凸問題に対して可能であれば、厳密な境界を与えることができる。
本稿では,より厳密な凸緩和境界を持つニューラルネットワークのトレーニングに使用できる2つの正則化器を提案する。
すべての実験において,提案する正規化器は非正規化ベースラインよりも精度が高い。
関連論文リスト
- Gaussian Loss Smoothing Enables Certified Training with Tight Convex Relaxations [14.061189994638667]
敵の例に対して高い精度でニューラルネットワークを訓練することは、依然としてオープンな課題である。
厳密な凸緩和を効果的に活用し、バウンド計算を行う。
トレーニングでは、これらの手法は緩やかに緩和されるよりも悪い結果をもたらす可能性がある。
ガウシアン・ロス・スムーシングはこれらの問題を緩和できることを示す。
論文 参考訳(メタデータ) (2024-03-11T18:44:36Z) - Linearity Grafting: Relaxed Neuron Pruning Helps Certifiable Robustness [172.61581010141978]
証明可能な堅牢性は、安全クリティカルなシナリオでディープニューラルネットワーク(DNN)を採用する上で望ましい特性である。
線形性の適切なレベルを「グラフト」することで、神経細胞を戦略的に操作する新しいソリューションを提案する。
論文 参考訳(メタデータ) (2022-06-15T22:42:29Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - DeepSplit: Scalable Verification of Deep Neural Networks via Operator
Splitting [70.62923754433461]
入力摂動に対するディープニューラルネットワークの最悪の性能を分析することは、大規模な非最適化問題の解決につながる。
解析解を持つ小さなサブプロブレムに分割することで,問題の凸緩和を直接高精度に解ける新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-16T20:43:49Z) - A Primer on Multi-Neuron Relaxation-based Adversarial Robustness
Certification [6.71471794387473]
敵対的な例は、ディープニューラルネットワークが現実世界に展開されるときに、本当に危険をもたらす。
本研究では,緩和に基づくロバスト性認証手法を記述するために,統一的な数学的枠組みを開発する。
論文 参考訳(メタデータ) (2021-06-06T11:59:27Z) - Bayesian Inference with Certifiable Adversarial Robustness [25.40092314648194]
ベイズ学習のレンズによる対向学習ネットワークについて考察する。
本稿では,ベイズニューラルネットワーク(BNN)の認証保証付き対数訓練のための基本的枠組みを提案する。
本手法は,認証済みBNNを直接訓練する最初の方法であり,安全クリティカルなアプリケーションでの使用を容易にする。
論文 参考訳(メタデータ) (2021-02-10T07:17:49Z) - Feature Purification: How Adversarial Training Performs Robust Deep
Learning [66.05472746340142]
ニューラルネットワークのトレーニングプロセス中に隠れた重みに、特定の小さな密度の混合物が蓄積されることが、敵の例の存在の原因の1つであることを示す。
この原理を説明するために、CIFAR-10データセットの両実験と、ある自然な分類タスクに対して、ランダムな勾配勾配勾配を用いた2層ニューラルネットワークをトレーニングすることを証明する理論的結果を示す。
論文 参考訳(メタデータ) (2020-05-20T16:56:08Z) - Tightened Convex Relaxations for Neural Network Robustness Certification [10.68833097448566]
我々は、ReLUネットワークの構造を利用して、新しいパーティションベースの認証手順により緩和誤差を改善する。
提案手法は, 既存の線形プログラミング緩和を厳格化することが証明され, 結果がより微細になるにつれて, 緩和誤差がゼロとなる。
論文 参考訳(メタデータ) (2020-04-01T16:59:21Z) - Regularized Training and Tight Certification for Randomized Smoothed
Classifier with Provable Robustness [15.38718018477333]
我々は新たな正規化リスクを導出し、正規化器はスムーズな手法の精度と堅牢性を適応的に促進することができる。
また、正規化効果を利用して、高い確率で保持されるより厳密なロバスト性の下限を提供する新しい認証アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-02-17T20:54:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。