論文の概要: Fast Training of Provably Robust Neural Networks by SingleProp
- arxiv url: http://arxiv.org/abs/2102.01208v1
- Date: Mon, 1 Feb 2021 22:12:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-03 16:33:37.154731
- Title: Fast Training of Provably Robust Neural Networks by SingleProp
- Title(参考訳): 単一プロップによる頑健なニューラルネットワークの高速学習
- Authors: Akhilan Boopathy, Tsui-Wei Weng, Sijia Liu, Pin-Yu Chen, Gaoyuan
Zhang, Luca Daniel
- Abstract要約: 我々は、既存の認証された防御よりも効率的である新しい正規化器を開発した。
我々は、最先端の認証防御と比較して、訓練速度と同等の認証精度の向上を実証する。
- 参考スコア(独自算出の注目度): 71.19423596238568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works have developed several methods of defending neural networks
against adversarial attacks with certified guarantees. However, these
techniques can be computationally costly due to the use of certification during
training. We develop a new regularizer that is both more efficient than
existing certified defenses, requiring only one additional forward propagation
through a network, and can be used to train networks with similar certified
accuracy. Through experiments on MNIST and CIFAR-10 we demonstrate improvements
in training speed and comparable certified accuracy compared to
state-of-the-art certified defenses.
- Abstract(参考訳): 最近の研究は、認証された保証を伴う敵の攻撃からニューラルネットワークを守るいくつかの方法を開発した。
しかし、これらの技術は、訓練中に認証を使用することで計算コストがかかる。
既存の認定防御よりも効率的で、ネットワークを介して1つの追加の前方伝播を必要とする新しい正規化器を開発し、同様の認定精度でネットワークを訓練することができます。
mnist と cifar-10 の実験を通じて,最先端の認証防御と比較して,トレーニング速度と同等の認定精度が向上することを示す。
関連論文リスト
- On Using Certified Training towards Empirical Robustness [40.582830117229854]
認定されたトレーニングアルゴリズムは、単一ステップ攻撃における壊滅的な過度なオーバーフィッティングを防ぐことができる。
また,ネットワークオーバー近似のための新たな正規化器を提案する。
論文 参考訳(メタデータ) (2024-10-02T14:56:21Z) - Towards Certified Unlearning for Deep Neural Networks [50.816473152067104]
認定されていない未学習は、凸機械学習モデルで広く研究されている。
認定アンラーニングとディープニューラルネットワーク(DNN)のギャップを埋める手法をいくつか提案する。
論文 参考訳(メタデータ) (2024-08-01T21:22:10Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Accelerating Certified Robustness Training via Knowledge Transfer [3.5934248574481717]
本稿では,知識伝達による頑健な学習手法の計算オーバーヘッドを低減するためのフレームワークを提案する。
CIFAR-10の実験により、CRTは3つの異なるアーキテクチャ世代で平均8倍のロバストネストレーニングを高速化した。
論文 参考訳(メタデータ) (2022-10-25T19:12:28Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Improving the Certified Robustness of Neural Networks via Consistency
Regularization [25.42238710803711]
敵の例によるニューラルネットワークの堅牢性を改善するために,様々な防御手法が提案されている。
これらの証明可能な防御メソッドのほとんどは、トレーニングプロセス中にすべての例を平等に扱う。
本論文では, 誤分類例による不整合を探究し, 誤分類例をより有効活用するために, 新たな整合性正規化項を加える。
論文 参考訳(メタデータ) (2020-12-24T05:00:50Z) - Exploring Model Robustness with Adaptive Networks and Improved
Adversarial Training [56.82000424924979]
入力サンプルに条件付きでネットワークを適応させる条件正規化モジュールを提案する。
適応的ネットワークは、一度逆さまに訓練された場合、クリーンな検証精度と堅牢性の両方において、適応的でないネットワークよりも優れています。
論文 参考訳(メタデータ) (2020-05-30T23:23:56Z) - Regularized Training and Tight Certification for Randomized Smoothed
Classifier with Provable Robustness [15.38718018477333]
我々は新たな正規化リスクを導出し、正規化器はスムーズな手法の精度と堅牢性を適応的に促進することができる。
また、正規化効果を利用して、高い確率で保持されるより厳密なロバスト性の下限を提供する新しい認証アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-02-17T20:54:34Z) - Fast is better than free: Revisiting adversarial training [86.11788847990783]
より弱く安価な敵を用いて、経験的に堅牢なモデルを訓練することが可能であることを示す。
我々は,FGSM逆行訓練を失敗に導く「破滅的オーバーフィッティング(catastrophic overfitting)」と呼ばれる障害モードを特定した。
論文 参考訳(メタデータ) (2020-01-12T20:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。