論文の概要: SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness
- arxiv url: http://arxiv.org/abs/2111.09277v1
- Date: Wed, 17 Nov 2021 18:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 14:21:42.766390
- Title: SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness
- Title(参考訳): SmoothMix:認証ロバスト性のための信頼度校正型スムース分類器の訓練
- Authors: Jongheon Jeong, Sejun Park, Minkyu Kim, Heung-Chang Lee, Doguk Kim,
Jinwoo Shin
- Abstract要約: 自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
- 参考スコア(独自算出の注目度): 61.212486108346695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Randomized smoothing is currently a state-of-the-art method to construct a
certifiably robust classifier from neural networks against $\ell_2$-adversarial
perturbations. Under the paradigm, the robustness of a classifier is aligned
with the prediction confidence, i.e., the higher confidence from a smoothed
classifier implies the better robustness. This motivates us to rethink the
fundamental trade-off between accuracy and robustness in terms of calibrating
confidences of a smoothed classifier. In this paper, we propose a simple
training scheme, coined SmoothMix, to control the robustness of smoothed
classifiers via self-mixup: it trains on convex combinations of samples along
the direction of adversarial perturbation for each input. The proposed
procedure effectively identifies over-confident, near off-class samples as a
cause of limited robustness in case of smoothed classifiers, and offers an
intuitive way to adaptively set a new decision boundary between these samples
for better robustness. Our experimental results demonstrate that the proposed
method can significantly improve the certified $\ell_2$-robustness of smoothed
classifiers compared to existing state-of-the-art robust training methods.
- Abstract(参考訳): ランダム化平滑化は、現在最先端の手法であり、$\ell_2$-adversarial 摂動に対してニューラルネットワークから確実に堅牢な分類器を構築する。
このパラダイムでは、分類器のロバスト性は予測信頼度、すなわち滑らかな分類器からの高い信頼度と一致している。
このことは、スムーズな分類器の信頼性の校正という観点から、精度と堅牢性の基本的なトレードオフを再考する動機となっている。
本稿では,SmoothMixという簡単なトレーニング手法を提案し,スムーズな分類器のロバスト性を自己混合により制御し,各入力に対する逆摂動方向に沿ったサンプルの凸結合を学習する。
提案手法は,スムーズな分類器の場合の頑健さが制限される原因として,自信過剰なオフクラス標本を効果的に同定し,これらの試料間の新たな決定境界を適応的に設定し,より堅牢性を高める。
提案手法は,従来のロバストなトレーニング手法と比較して,平滑化分類器の認証値である$\ell_2$-robustnessを大幅に改善できることが実証された。
関連論文リスト
- Mixing Classifiers to Alleviate the Accuracy-Robustness Trade-Off [8.169499497403102]
本稿では、標準ニューラルネットワークとロバストニューラルネットワークの出力確率を混合した理論的動機付け型定式化を提案する。
数値実験により,混合分類器は精度・損耗トレードオフを著しく改善することを確認した。
論文 参考訳(メタデータ) (2023-11-26T02:25:30Z) - Multi-scale Diffusion Denoised Smoothing [79.95360025953931]
ランダムな平滑化は、大規模モデルに敵対的ロバスト性を提供する、いくつかの具体的なアプローチの1つになっている。
本報告では, 分割平滑化におけるロバスト性と精度との現在のトレードオフに対処するスケーラブルな手法を提案する。
提案手法と拡散微細調整を併用したマルチスケール平滑化手法により,高騒音レベルで高い信頼性のロバスト性が得られることを示す。
論文 参考訳(メタデータ) (2023-10-25T17:11:21Z) - Promoting Robustness of Randomized Smoothing: Two Cost-Effective
Approaches [28.87505826018613]
クリーンな性能を維持しつつ, ランダム化平滑化の堅牢性を高めるための2つのコスト効率な手法を提案する。
最初のアプローチでは、敵のトレーニングとランダムな平滑化のための認証を組み合わせた、新しい堅牢なトレーニング手法AdvMacerを導入している。
第2のアプローチでは、モデルアンサンブル構築に基づくロバスト性証明を大幅に改善する後処理手法であるEsbRSを導入している。
論文 参考訳(メタデータ) (2023-10-11T18:06:05Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - Hidden Cost of Randomized Smoothing [72.93630656906599]
本稿では、現在のランダム化平滑化による副作用を指摘する。
具体的には,1)スムーズな分類器の決定境界が小さくなり,クラスレベルでの精度の相違が生じること,2)学習過程における雑音増強の適用は,一貫性のない学習目的による縮小問題を必ずしも解決しない,という2つの主要なポイントを具体化し,証明する。
論文 参考訳(メタデータ) (2020-03-02T23:37:42Z) - Regularized Training and Tight Certification for Randomized Smoothed
Classifier with Provable Robustness [15.38718018477333]
我々は新たな正規化リスクを導出し、正規化器はスムーズな手法の精度と堅牢性を適応的に促進することができる。
また、正規化効果を利用して、高い確率で保持されるより厳密なロバスト性の下限を提供する新しい認証アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-02-17T20:54:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。