論文の概要: Certified Distributional Robustness on Smoothed Classifiers
- arxiv url: http://arxiv.org/abs/2010.10987v2
- Date: Fri, 30 Apr 2021 07:24:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 23:34:53.019292
- Title: Certified Distributional Robustness on Smoothed Classifiers
- Title(参考訳): 平滑化分類器の認証分布ロバスト性
- Authors: Jungang Yang, Liyao Xiang, Ruidong Chen, Yukun Wang, Wei Wang, Xinbing
Wang
- Abstract要約: 本稿では,ロバスト性証明として,入力分布に対する最悪の逆損失を提案する。
双対性と滑らか性を利用して、証明書のサロゲートとして容易に計算できる上限を与える。
- 参考スコア(独自算出の注目度): 27.006844966157317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The robustness of deep neural networks (DNNs) against adversarial example
attacks has raised wide attention. For smoothed classifiers, we propose the
worst-case adversarial loss over input distributions as a robustness
certificate. Compared with previous certificates, our certificate better
describes the empirical performance of the smoothed classifiers. By exploiting
duality and the smoothness property, we provide an easy-to-compute upper bound
as a surrogate for the certificate. We adopt a noisy adversarial learning
procedure to minimize the surrogate loss to improve model robustness. We show
that our training method provides a theoretically tighter bound over the
distributional robust base classifiers. Experiments on a variety of datasets
further demonstrate superior robustness performance of our method over the
state-of-the-art certified or heuristic methods.
- Abstract(参考訳): 敵のサンプル攻撃に対するディープニューラルネットワーク(DNN)の堅牢性は、広く注目を集めている。
平滑化分類器では, 入力分布に対する最悪の逆損失をロバスト性証明として提案する。
従来の証明書と比較して,スムーズな分類器の実証性能をよりよく記述する。
双対性と滑らかさを生かして,証明のサロゲートとして計算容易な上界を提供する。
モデルロバスト性を改善するため,サロゲート損失を最小限に抑えるため,ノイズの多い逆学習手法を採用する。
本手法は, 分布型ロバストベース分類器に対して, 理論的により厳密な境界を与えることを示す。
各種データセットに対する実験により,最先端の認証手法やヒューリスティック手法よりも,提案手法の堅牢性に優れることが示された。
関連論文リスト
- Confidence-aware Denoised Fine-tuning of Off-the-shelf Models for Certified Robustness [56.2479170374811]
我々はFT-CADIS(Fun Fine-Tuning with Confidence-Aware Denoized Image Selection)を紹介する。
FT-CADISは、既成の分類器の信頼性が、視覚的平滑化中の幻覚像を効果的に識別できるという観察に着想を得たものである。
様々なベンチマークにおいて、すべての$ell$-adversary半径にわたる偏微分平滑化法のうち、最先端の証明されたロバスト性を確立している。
論文 参考訳(メタデータ) (2024-11-13T09:13:20Z) - It's Simplex! Disaggregating Measures to Improve Certified Robustness [32.63920797751968]
本研究は,認証機構の分析を改善するための2つのアプローチを提案する。
新しい認証アプローチは、達成可能な認定範囲の2倍以上の可能性を秘めている。
経験的評価は、我々の新しいアプローチがノイズスケール$sigma = 1$で9%以上のサンプルを認証できることを検証する。
論文 参考訳(メタデータ) (2023-09-20T02:16:19Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Smooth-Reduce: Leveraging Patches for Improved Certified Robustness [100.28947222215463]
本研究では,Smooth-Reduce の学習自由な修正スムース化手法を提案する。
提案アルゴリズムは,入力画像から抽出した重なり合うパッチを分類し,予測ロジットを集約して,入力周辺の半径が大きいことを証明する。
我々は,このような証明書の理論的保証を提供し,他のランダムな平滑化手法に対する顕著な改善を実証的に示す。
論文 参考訳(メタデータ) (2022-05-12T15:26:20Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - CROP: Certifying Robust Policies for Reinforcement Learning through
Functional Smoothing [41.093241772796475]
本稿では, 逆境状態の摂動に対する強化学習(CROP)のためのロバスト政策の認定のための最初の枠組みを提案する。
本研究では,国家ごとの行動の堅牢性と累積報酬の低限界の2種類のロバスト性認定基準を提案する。
論文 参考訳(メタデータ) (2021-06-17T07:58:32Z) - Adversarial Robustness of Supervised Sparse Coding [34.94566482399662]
表現を学習すると同時に、正確な一般化境界と堅牢性証明を与えるモデルを考える。
線形エンコーダと組み合わされたスパーシティプロモーティングエンコーダを組み合わせた仮説クラスに着目した。
エンドツーエンドの分類のための堅牢性証明を提供する。
論文 参考訳(メタデータ) (2020-10-22T22:05:21Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。