論文の概要: Certified Adversarial Robustness Within Multiple Perturbation Bounds
- arxiv url: http://arxiv.org/abs/2304.10446v1
- Date: Thu, 20 Apr 2023 16:42:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 12:27:58.175134
- Title: Certified Adversarial Robustness Within Multiple Perturbation Bounds
- Title(参考訳): 複数の摂動境界内における強固性認定
- Authors: Soumalya Nandi, Sravanti Addepalli, Harsh Rangwani and R. Venkatesh
Babu
- Abstract要約: ランダムスムーシング(Randomized smoothing、RS)は、敵の攻撃に対するよく知られた防御である。
本研究では,複数の摂動境界に対して同時に認証された対向ロバスト性を改善することを目的としている。
- 参考スコア(独自算出の注目度): 38.3813286696956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Randomized smoothing (RS) is a well known certified defense against
adversarial attacks, which creates a smoothed classifier by predicting the most
likely class under random noise perturbations of inputs during inference. While
initial work focused on robustness to $\ell_2$ norm perturbations using noise
sampled from a Gaussian distribution, subsequent works have shown that
different noise distributions can result in robustness to other $\ell_p$ norm
bounds as well. In general, a specific noise distribution is optimal for
defending against a given $\ell_p$ norm based attack. In this work, we aim to
improve the certified adversarial robustness against multiple perturbation
bounds simultaneously. Towards this, we firstly present a novel
\textit{certification scheme}, that effectively combines the certificates
obtained using different noise distributions to obtain optimal results against
multiple perturbation bounds. We further propose a novel \textit{training noise
distribution} along with a \textit{regularized training scheme} to improve the
certification within both $\ell_1$ and $\ell_2$ perturbation norms
simultaneously. Contrary to prior works, we compare the certified robustness of
different training algorithms across the same natural (clean) accuracy, rather
than across fixed noise levels used for training and certification. We also
empirically invalidate the argument that training and certifying the classifier
with the same amount of noise gives the best results. The proposed approach
achieves improvements on the ACR (Average Certified Radius) metric across both
$\ell_1$ and $\ell_2$ perturbation bounds.
- Abstract(参考訳): ランダムスムーシング(Randomized smoothing, RRS)は、逆行攻撃に対するよく知られた防御であり、推論中に入力のランダムノイズ摂動の下で最も起こりうるクラスを予測することによって、スムースな分類子を生成する。
最初の研究は、ガウス分布からサンプリングされたノイズを用いた$\ell_2$ノルム摂動に対するロバスト性に焦点を当てたが、その後の研究は、異なるノイズ分布が他の$\ell_p$ノルム境界にもロバスト性をもたらすことを示した。
一般に、特定のノイズ分布は与えられた$\ell_p$ に基づく攻撃に対して防御するために最適である。
本研究では,複数の摂動境界に対して同時に認証された対向ロバスト性を改善することを目的とする。
そこで我々はまず,異なる雑音分布を用いて得られた証明を効果的に組み合わせて,複数の摂動境界に対する最適結果を得る,新しい「textit{certification scheme」を提案する。
さらに,$\ell_1$と$\ell_2$摂動ノルムの両方で同時に認証を改善するための \textit{regularized training scheme} とともに,新しい \textit{training noise distribution} を提案する。
事前の作業とは対照的に、トレーニングや認定に使用する固定ノイズレベルよりも、同じ自然な(クリーンな)精度で異なるトレーニングアルゴリズムの証明された堅牢性を比較する。
また、同じノイズ量で分類器を訓練し、証明することが最良の結果をもたらすという議論を実証的に無効にしている。
提案手法は、$\ell_1$と$\ell_2$摂動境界の双方にわたって、ACR(Average Certified Radius)メトリックの改善を実現する。
関連論文リスト
- The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Improved, Deterministic Smoothing for L1 Certified Robustness [119.86676998327864]
分割雑音を伴う非加法的決定論的平滑化法(dssn)を提案する。
一様加法平滑化とは対照的に、ssn認証は無作為なノイズコンポーネントを独立に必要としない。
これは、規範ベースの敵対的脅威モデルに対して決定論的「ランダム化平滑化」を提供する最初の仕事である。
論文 参考訳(メタデータ) (2021-03-17T21:49:53Z) - Adversarially Robust Classifier with Covariate Shift Adaptation [25.39995678746662]
既存の敵の訓練されたモデルは通常、テスト例に対して互いに独立して推論を行う。
単純な適応バッチ正規化(BN)技術は、ランダムな摂動に対してこれらのモデルのロバスト性を大幅に向上させることができることを示す。
さらに,適応BN手法は,敵攻撃に対する性能を高めつつも,一般的な汚職に対する堅牢性を著しく向上させることを示した。
論文 参考訳(メタデータ) (2021-02-09T19:51:56Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - Black-Box Certification with Randomized Smoothing: A Functional
Optimization Based Framework [60.981406394238434]
本稿では,非ガウス雑音とより一般的な攻撃に対する対向的認証の一般的な枠組みを提案する。
提案手法は,従来の手法よりも優れた認証結果を得るとともに,ランダム化スムーズな認証の新たな視点を提供する。
論文 参考訳(メタデータ) (2020-02-21T07:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。