論文の概要: Adaptive Randomized Smoothing: Certifying Multi-Step Defences against Adversarial Examples
- arxiv url: http://arxiv.org/abs/2406.10427v1
- Date: Fri, 14 Jun 2024 22:11:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 00:32:34.245082
- Title: Adaptive Randomized Smoothing: Certifying Multi-Step Defences against Adversarial Examples
- Title(参考訳): Adaptive Randomized Smoothing: Certifying Multi-Step Defenses against Adversarial Examples
- Authors: Saiyue Lyu, Shadab Shaikh, Frederick Shpilevskiy, Evan Shelhamer, Mathias Lécuyer,
- Abstract要約: 本稿では,適応ランダム化平滑化法(ARS)を提案する。
ARSは、f-Differential Privacyを用いたランダムな平滑化の分析を拡張し、複数のステップの適応的な構成を認証する。
我々は,有界な$L_infty$ノルムの逆例に対する予測を証明するために,深部画像分類上のARSをインスタンス化する。
- 参考スコア(独自算出の注目度): 8.40389580910855
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose Adaptive Randomized Smoothing (ARS) to certify the predictions of our test-time adaptive models against adversarial examples. ARS extends the analysis of randomized smoothing using f-Differential Privacy to certify the adaptive composition of multiple steps. For the first time, our theory covers the sound adaptive composition of general and high-dimensional functions of noisy input. We instantiate ARS on deep image classification to certify predictions against adversarial examples of bounded $L_{\infty}$ norm. In the $L_{\infty}$ threat model, our flexibility enables adaptation through high-dimensional input-dependent masking. We design adaptivity benchmarks, based on CIFAR-10 and CelebA, and show that ARS improves accuracy by $2$ to $5\%$ points. On ImageNet, ARS improves accuracy by $1$ to $3\%$ points over standard RS without adaptivity.
- Abstract(参考訳): 本稿では,適応ランダム化平滑化法(ARS)を提案する。
ARSは、f-Differential Privacyを用いたランダムな平滑化の分析を拡張し、複数のステップの適応的な構成を認証する。
この理論は,雑音入力の一般関数と高次元関数の適応構成を初めて取り上げる。
我々は、深い画像分類上のARSをインスタンス化し、有界な$L_{\infty}$ノルムの逆例に対する予測を証明した。
L_{\infty}$脅威モデルでは,高次元の入力依存マスキングによる適応が可能となる。
CIFAR-10 と CelebA に基づく適応性ベンチマークを設計し,ARS の精度を 2 ~ 5 % の精度で向上することを示す。
ImageNetでは、ARSは適応性のない標準RSよりも精度を1ドルから3ドルで改善している。
関連論文リスト
- Certifying Adapters: Enabling and Enhancing the Certification of Classifier Adversarial Robustness [21.394217131341932]
本稿では,対向ロバスト性の証明を可能にする新しい認証アダプタフレームワーク(CAF)を提案する。
CAFは、ランダムまたは復号化スムーシングに基づく手法と比較して、認証精度の向上を実現している。
アダプタのアンサンブルにより、1つの事前訓練された特徴抽出器は、様々なノイズ摂動スケールに対して防御することができる。
論文 参考訳(メタデータ) (2024-05-25T03:18:52Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - RS-Del: Edit Distance Robustness Certificates for Sequence Classifiers
via Randomized Deletion [23.309600117618025]
離散列分類器のランダム化スムーシングを適用して、編集距離境界の敵に対して確固たるロバスト性を提供する。
私たちの証明は、確立されたNeyman-Pearsonアプローチから逸脱したものです。
一般的なMalConvマルウェア検出モデルに適用すると、スムーシング機構RS-Delは128バイトの編集距離半径で91%の精度を達成できる。
論文 参考訳(メタデータ) (2023-01-31T01:40:26Z) - Double Sampling Randomized Smoothing [19.85592163703077]
二重サンプリングランダム化平滑化フレームワークを提案する。
サンプリングされた確率を、追加の滑らかな分布から利用して、以前の滑らかな分類器の堅牢性認証を強化する。
本研究では,DSRSが既存のデータセットよりも高いロバストラジイを常に異なる設定で証明していることを示す。
論文 参考訳(メタデータ) (2022-06-16T04:34:28Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Improved, Deterministic Smoothing for L1 Certified Robustness [119.86676998327864]
分割雑音を伴う非加法的決定論的平滑化法(dssn)を提案する。
一様加法平滑化とは対照的に、ssn認証は無作為なノイズコンポーネントを独立に必要としない。
これは、規範ベースの敵対的脅威モデルに対して決定論的「ランダム化平滑化」を提供する最初の仕事である。
論文 参考訳(メタデータ) (2021-03-17T21:49:53Z) - On the robustness of randomized classifiers to adversarial examples [11.359085303200981]
確率指標を用いて局所リプシッツ性を強制するランダム化分類器の堅牢性の新しい概念を紹介する。
本研究の結果は,温和な仮説下での幅広い機械学習モデルに適用可能であることを示す。
トレーニングしたすべての堅牢なモデルは、最新の精度を同時に達成できます。
論文 参考訳(メタデータ) (2021-02-22T10:16:58Z) - Adversarially Robust Classifier with Covariate Shift Adaptation [25.39995678746662]
既存の敵の訓練されたモデルは通常、テスト例に対して互いに独立して推論を行う。
単純な適応バッチ正規化(BN)技術は、ランダムな摂動に対してこれらのモデルのロバスト性を大幅に向上させることができることを示す。
さらに,適応BN手法は,敵攻撃に対する性能を高めつつも,一般的な汚職に対する堅牢性を著しく向上させることを示した。
論文 参考訳(メタデータ) (2021-02-09T19:51:56Z) - Almost Tight L0-norm Certified Robustness of Top-k Predictions against
Adversarial Perturbations [78.23408201652984]
トップk予測は、マシンラーニング・アズ・ア・サービス、レコメンダ・システム、Web検索など、多くの現実世界のアプリケーションで使用されている。
我々の研究はランダム化平滑化に基づいており、入力をランダム化することで、証明可能なロバストな分類器を構築する。
例えば、攻撃者がテスト画像の5ピクセルを任意に摂動できる場合に、ImageNet上で69.2%の認定トップ3精度を達成する分類器を構築することができる。
論文 参考訳(メタデータ) (2020-11-15T21:34:44Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - Black-Box Certification with Randomized Smoothing: A Functional
Optimization Based Framework [60.981406394238434]
本稿では,非ガウス雑音とより一般的な攻撃に対する対向的認証の一般的な枠組みを提案する。
提案手法は,従来の手法よりも優れた認証結果を得るとともに,ランダム化スムーズな認証の新たな視点を提供する。
論文 参考訳(メタデータ) (2020-02-21T07:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。