論文の概要: Promoting Robustness of Randomized Smoothing: Two Cost-Effective
Approaches
- arxiv url: http://arxiv.org/abs/2310.07780v1
- Date: Wed, 11 Oct 2023 18:06:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 14:22:27.869919
- Title: Promoting Robustness of Randomized Smoothing: Two Cost-Effective
Approaches
- Title(参考訳): ランダム化平滑化のロバスト性向上:2つのコスト効果アプローチ
- Authors: Linbo Liu, Trong Nghia Hoang, Lam M. Nguyen, Tsui-Wei Weng
- Abstract要約: クリーンな性能を維持しつつ, ランダム化平滑化の堅牢性を高めるための2つのコスト効率な手法を提案する。
最初のアプローチでは、敵のトレーニングとランダムな平滑化のための認証を組み合わせた、新しい堅牢なトレーニング手法AdvMacerを導入している。
第2のアプローチでは、モデルアンサンブル構築に基づくロバスト性証明を大幅に改善する後処理手法であるEsbRSを導入している。
- 参考スコア(独自算出の注目度): 28.87505826018613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Randomized smoothing has recently attracted attentions in the field of
adversarial robustness to provide provable robustness guarantees on smoothed
neural network classifiers. However, existing works show that vanilla
randomized smoothing usually does not provide good robustness performance and
often requires (re)training techniques on the base classifier in order to boost
the robustness of the resulting smoothed classifier. In this work, we propose
two cost-effective approaches to boost the robustness of randomized smoothing
while preserving its clean performance. The first approach introduces a new
robust training method AdvMacerwhich combines adversarial training and
robustness certification maximization for randomized smoothing. We show that
AdvMacer can improve the robustness performance of randomized smoothing
classifiers compared to SOTA baselines, while being 3x faster to train than
MACER baseline. The second approach introduces a post-processing method EsbRS
which greatly improves the robustness certificate based on building model
ensembles. We explore different aspects of model ensembles that has not been
studied by prior works and propose a novel design methodology to further
improve robustness of the ensemble based on our theoretical analysis.
- Abstract(参考訳): ランダムなスムージングは、スムーズなニューラルネットワーク分類器で証明可能なロバスト性を保証するために、最近、対向ロバストネスの分野で注目を集めている。
しかし、既存の研究によると、バニラランダム化平滑化は通常、ロバスト性性能が良くなく、結果として生じる平滑化分類器のロバスト性を高めるために、ベース分類器に(再)訓練技術を必要とする。
本研究では,無作為化平滑化のロバスト性を高めるための2つのコスト効率の高い手法を提案する。
最初のアプローチでは、ランダムな平滑化のための逆トレーニングとロバストネス認証の最大化を組み合わせた、新しい堅牢なトレーニング手法AdvMacerを導入している。
本稿では,ランダム化スムースな分類器のロバスト性はSOTAベースラインに比べて向上し,MACERベースラインよりも3倍高速であることを示す。
第2のアプローチでは、モデルアンサンブル構築に基づくロバスト性証明を大幅に改善する後処理手法であるEsbRSを導入する。
先行研究で研究されていないモデルアンサンブルの異なる側面を探索し,理論解析に基づいてアンサンブルのロバスト性をさらに向上させる新しい設計手法を提案する。
関連論文リスト
- Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Robust Binary Models by Pruning Randomly-initialized Networks [57.03100916030444]
ランダムな二元ネットワークから敵攻撃に対して頑健なモデルを得る方法を提案する。
ランダムな二元ネットワークを切断することにより、ロバストモデルの構造を学習する。
本手法は, 敵攻撃の有無で, 強力な抽選券仮説を立証する。
論文 参考訳(メタデータ) (2022-02-03T00:05:08Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - Improved, Deterministic Smoothing for L1 Certified Robustness [119.86676998327864]
分割雑音を伴う非加法的決定論的平滑化法(dssn)を提案する。
一様加法平滑化とは対照的に、ssn認証は無作為なノイズコンポーネントを独立に必要としない。
これは、規範ベースの敵対的脅威モデルに対して決定論的「ランダム化平滑化」を提供する最初の仕事である。
論文 参考訳(メタデータ) (2021-03-17T21:49:53Z) - Hidden Cost of Randomized Smoothing [72.93630656906599]
本稿では、現在のランダム化平滑化による副作用を指摘する。
具体的には,1)スムーズな分類器の決定境界が小さくなり,クラスレベルでの精度の相違が生じること,2)学習過程における雑音増強の適用は,一貫性のない学習目的による縮小問題を必ずしも解決しない,という2つの主要なポイントを具体化し,証明する。
論文 参考訳(メタデータ) (2020-03-02T23:37:42Z) - Black-Box Certification with Randomized Smoothing: A Functional
Optimization Based Framework [60.981406394238434]
本稿では,非ガウス雑音とより一般的な攻撃に対する対向的認証の一般的な枠組みを提案する。
提案手法は,従来の手法よりも優れた認証結果を得るとともに,ランダム化スムーズな認証の新たな視点を提供する。
論文 参考訳(メタデータ) (2020-02-21T07:52:47Z) - Regularized Training and Tight Certification for Randomized Smoothed
Classifier with Provable Robustness [15.38718018477333]
我々は新たな正規化リスクを導出し、正規化器はスムーズな手法の精度と堅牢性を適応的に促進することができる。
また、正規化効果を利用して、高い確率で保持されるより厳密なロバスト性の下限を提供する新しい認証アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-02-17T20:54:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。