論文の概要: Adversarially Robust Classifier with Covariate Shift Adaptation
- arxiv url: http://arxiv.org/abs/2102.05096v1
- Date: Tue, 9 Feb 2021 19:51:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 14:49:27.383896
- Title: Adversarially Robust Classifier with Covariate Shift Adaptation
- Title(参考訳): 共変量シフト適応型逆ロバスト分類器
- Authors: Jay Nandy and Sudipan Saha and Wynne Hsu and Mong Li Lee and Xiao
Xiang Zhu
- Abstract要約: 既存の敵の訓練されたモデルは通常、テスト例に対して互いに独立して推論を行う。
単純な適応バッチ正規化(BN)技術は、ランダムな摂動に対してこれらのモデルのロバスト性を大幅に向上させることができることを示す。
さらに,適応BN手法は,敵攻撃に対する性能を高めつつも,一般的な汚職に対する堅牢性を著しく向上させることを示した。
- 参考スコア(独自算出の注目度): 25.39995678746662
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing adversarially trained models typically perform inference on test
examples independently from each other. This mode of testing is unable to
handle covariate shift in the test samples. Due to this, the performance of
these models often degrades significantly. In this paper, we show that simple
adaptive batch normalization (BN) technique that involves re-estimating the
batch-normalization parameters during inference, can significantly improve the
robustness of these models for any random perturbations, including the Gaussian
noise. This simple finding enables us to transform adversarially trained models
into randomized smoothing classifiers to produce certified robustness to
$\ell_2$ noise. We show that we can achieve $\ell_2$ certified robustness even
for adversarially trained models using $\ell_{\infty}$-bounded adversarial
examples. We further demonstrate that adaptive BN technique significantly
improves robustness against common corruptions, while often enhancing
performance against adversarial attacks. This enables us to achieve both
adversarial and corruption robustness for the same classifier.
- Abstract(参考訳): 既存の敵対的訓練を受けたモデルは、通常、互いに独立してテスト例の推論を行う。
このテストモードは、テストサンプルの共変シフトを処理することはできません。
このため、これらのモデルのパフォーマンスはしばしば大幅に低下します。
本稿では,推定中にバッチ正規化パラメータを再推定する単純な適応バッチ正規化(bn)手法が,ガウス雑音を含む任意のランダム摂動に対して,これらのモデルのロバスト性を大幅に改善できることを示す。
この単純な発見により、敵対的に訓練されたモデルをランダムな平滑化分類器に変換して、認定された堅牢性を$\ell_2$ノイズに変換できます。
我々は、$\ell_{\infty}$-bounded adversarial 例を使用して、敵対訓練を受けたモデルでも $\ell_2$ 認定堅牢性を達成できることを示します。
さらに,適応BN手法は,敵攻撃に対する性能を高めつつも,一般的な汚職に対する堅牢性を著しく向上させることを示した。
これにより、同じ分類器に対して敵対的および腐敗的堅牢性の両方を達成できます。
関連論文リスト
- Decoupled Prototype Learning for Reliable Test-Time Adaptation [50.779896759106784]
テスト時間適応(TTA)は、推論中にトレーニング済みのソースモデルをターゲットドメインに継続的に適応させるタスクである。
1つの一般的なアプローチは、推定擬似ラベルによるクロスエントロピー損失を伴う微調整モデルである。
本研究は, 各試料の分類誤差を最小化することで, クロスエントロピー損失の脆弱性がラベルノイズを引き起こすことを明らかにした。
本稿では,プロトタイプ中心の損失計算を特徴とする新しいDPL法を提案する。
論文 参考訳(メタデータ) (2024-01-15T03:33:39Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Generating Structured Adversarial Attacks Using Frank-Wolfe Method [7.84752424025677]
異なるノルムによる逆探索の制約は、異なる構成の逆の例をもたらす。
構造化逆数例は、モデルをより堅牢にしたり、構造的に異なるデータセット上での性能を向上させるために、モデルの逆正則化に使用することができる。
論文 参考訳(メタデータ) (2021-02-15T06:36:50Z) - Differentially Private Adversarial Robustness Through Randomized
Perturbations [16.187650541902283]
ディープニューラルネットワークは、正しく分類された例に対する小さな摂動に確実に敏感であり、誤った予測につながる。
本稿では,ランダムな摂動による対向ロバスト性について検討する。
提案手法は,ガムベル雑音に基づく新しい密度ベース機構を用いる。
論文 参考訳(メタデータ) (2020-09-27T00:58:32Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。