論文の概要: Consistency Regularization for Certified Robustness of Smoothed
Classifiers
- arxiv url: http://arxiv.org/abs/2006.04062v4
- Date: Fri, 8 Jan 2021 14:39:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 07:28:17.992897
- Title: Consistency Regularization for Certified Robustness of Smoothed
Classifiers
- Title(参考訳): Smoothed Classifierの認証ロバスト性のための一貫性規則化
- Authors: Jongheon Jeong, Jinwoo Shin
- Abstract要約: 最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
- 参考スコア(独自算出の注目度): 89.72878906950208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A recent technique of randomized smoothing has shown that the worst-case
(adversarial) $\ell_2$-robustness can be transformed into the average-case
Gaussian-robustness by "smoothing" a classifier, i.e., by considering the
averaged prediction over Gaussian noise. In this paradigm, one should rethink
the notion of adversarial robustness in terms of generalization ability of a
classifier under noisy observations. We found that the trade-off between
accuracy and certified robustness of smoothed classifiers can be greatly
controlled by simply regularizing the prediction consistency over noise. This
relationship allows us to design a robust training objective without
approximating a non-existing smoothed classifier, e.g., via soft smoothing. Our
experiments under various deep neural network architectures and datasets show
that the "certified" $\ell_2$-robustness can be dramatically improved with the
proposed regularization, even achieving better or comparable results to the
state-of-the-art approaches with significantly less training costs and
hyperparameters.
- Abstract(参考訳): 最近のランダム化平滑化手法により、最悪のケース(逆数)$\ell_2$-robustnessは、ガウス雑音に対する平均予測を考慮し、分類器を「平滑化」することで平均ガウス音に変換できることが示された。
このパラダイムでは、雑音観測の下での分類器の一般化能力の観点から、逆強靭性の概念を再考すべきである。
その結果,ノイズに対する予測一貫性を単純に定式化することで,平滑化分類器の精度と頑健性のトレードオフを大幅に制御できることがわかった。
この関係により、既存のスムーズな分類器(ソフトスムーズ化など)を近似することなく、堅牢な学習目標を設計できる。
さまざまなディープニューラルネットワークアーキテクチャとデータセットで行った実験では、"認証"された$\ell_2$-robustnessが、提案された正規化によって劇的に改善され、トレーニングコストとハイパーパラメータを大幅に削減した最先端のアプローチと同等の結果を得ることができた。
関連論文リスト
- Multi-scale Diffusion Denoised Smoothing [79.95360025953931]
ランダムな平滑化は、大規模モデルに敵対的ロバスト性を提供する、いくつかの具体的なアプローチの1つになっている。
本報告では, 分割平滑化におけるロバスト性と精度との現在のトレードオフに対処するスケーラブルな手法を提案する。
提案手法と拡散微細調整を併用したマルチスケール平滑化手法により,高騒音レベルで高い信頼性のロバスト性が得られることを示す。
論文 参考訳(メタデータ) (2023-10-25T17:11:21Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - Adversarially Robust Classifier with Covariate Shift Adaptation [25.39995678746662]
既存の敵の訓練されたモデルは通常、テスト例に対して互いに独立して推論を行う。
単純な適応バッチ正規化(BN)技術は、ランダムな摂動に対してこれらのモデルのロバスト性を大幅に向上させることができることを示す。
さらに,適応BN手法は,敵攻撃に対する性能を高めつつも,一般的な汚職に対する堅牢性を著しく向上させることを示した。
論文 参考訳(メタデータ) (2021-02-09T19:51:56Z) - Black-Box Certification with Randomized Smoothing: A Functional
Optimization Based Framework [60.981406394238434]
本稿では,非ガウス雑音とより一般的な攻撃に対する対向的認証の一般的な枠組みを提案する。
提案手法は,従来の手法よりも優れた認証結果を得るとともに,ランダム化スムーズな認証の新たな視点を提供する。
論文 参考訳(メタデータ) (2020-02-21T07:52:47Z) - Regularized Training and Tight Certification for Randomized Smoothed
Classifier with Provable Robustness [15.38718018477333]
我々は新たな正規化リスクを導出し、正規化器はスムーズな手法の精度と堅牢性を適応的に促進することができる。
また、正規化効果を利用して、高い確率で保持されるより厳密なロバスト性の下限を提供する新しい認証アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-02-17T20:54:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。