論文の概要: Improved, Deterministic Smoothing for L1 Certified Robustness
- arxiv url: http://arxiv.org/abs/2103.10834v1
- Date: Wed, 17 Mar 2021 21:49:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 14:28:22.719531
- Title: Improved, Deterministic Smoothing for L1 Certified Robustness
- Title(参考訳): L1認証ロバストネスのための改良された決定論的平滑化
- Authors: Alexander Levine, Soheil Feizi
- Abstract要約: 分割雑音を伴う非加法的決定論的平滑化法(dssn)を提案する。
一様加法平滑化とは対照的に、ssn認証は無作為なノイズコンポーネントを独立に必要としない。
これは、規範ベースの敵対的脅威モデルに対して決定論的「ランダム化平滑化」を提供する最初の仕事である。
- 参考スコア(独自算出の注目度): 119.86676998327864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Randomized smoothing is a general technique for computing sample-dependent
robustness guarantees against adversarial attacks for deep classifiers. Prior
works on randomized smoothing against L_1 adversarial attacks use additive
smoothing noise and provide probabilistic robustness guarantees. In this work,
we propose a non-additive and deterministic smoothing method, Deterministic
Smoothing with Splitting Noise (DSSN). To develop DSSN, we first develop SSN, a
randomized method which involves generating each noisy smoothing sample by
first randomly splitting the input space and then returning a representation of
the center of the subdivision occupied by the input sample. In contrast to
uniform additive smoothing, the SSN certification does not require the random
noise components used to be independent. Thus, smoothing can be done
effectively in just one dimension and can therefore be efficiently derandomized
for quantized data (e.g., images). To the best of our knowledge, this is the
first work to provide deterministic "randomized smoothing" for a norm-based
adversarial threat model while allowing for an arbitrary classifier (i.e., a
deep model) to be used as a base classifier and without requiring an
exponential number of smoothing samples. On CIFAR-10 and ImageNet datasets, we
provide substantially larger L_1 robustness certificates compared to prior
works, establishing a new state-of-the-art. The determinism of our method also
leads to significantly faster certificate computation.
- Abstract(参考訳): ランダムスムーシング(Randomized smoothing)は、深層分類器に対する逆攻撃に対するサンプル依存の堅牢性を保証する一般的な手法である。
l_1攻撃に対するランダム化平滑化に関する先行研究では、付加的な平滑化ノイズを使用し、確率的ロバストネス保証を提供する。
本研究では,非付加的で決定論的な平滑化手法であるDSSN(Deterministic Smoothing with Splitting Noise)を提案する。
DSSNを開発するために,まず,まず入力空間をランダムに分割し,次に入力サンプルが占有する部分分割の中心の表現を返すことで,各ノイズの平滑化サンプルを生成するランダム化手法であるSSNを開発した。
一様加法平滑化とは対照的に、ssn認証は無作為なノイズコンポーネントを独立に必要としない。
これにより、平滑化を1次元で効果的に行うことができ、量子化データ(例えば画像)に対して効率的に非ランダム化することができる。
我々の知る限りでは、任意の分類器(ディープモデル)を基本分類器として使用でき、指数的な数の滑らか化サンプルを必要とせず、ノルムベースの敵脅威モデルに対して決定論的「ランダム化滑らか化」を提供する最初の研究である。
CIFAR-10とImageNetデータセットでは,従来よりもはるかに大きなL_1堅牢性証明を提供し,新たな最先端技術を確立している。
また,本手法の決定性は,証明計算の高速化にも寄与する。
関連論文リスト
- Multi-scale Diffusion Denoised Smoothing [79.95360025953931]
ランダムな平滑化は、大規模モデルに敵対的ロバスト性を提供する、いくつかの具体的なアプローチの1つになっている。
本報告では, 分割平滑化におけるロバスト性と精度との現在のトレードオフに対処するスケーラブルな手法を提案する。
提案手法と拡散微細調整を併用したマルチスケール平滑化手法により,高騒音レベルで高い信頼性のロバスト性が得られることを示す。
論文 参考訳(メタデータ) (2023-10-25T17:11:21Z) - Hierarchical Randomized Smoothing [94.59984692215426]
ランダムな平滑化は、モデルが入力の小さな変更に対して確実に堅牢にするための強力なフレームワークです。
階層的ランダム化平滑化(hierarchical randomized smoothing): ランダムに選択されたエンティティのサブセットにのみランダムノイズを加えることで、部分的に滑らかなオブジェクトを生成する。
画像およびノード分類における階層的スムージングの重要性を実験的に示す。
論文 参考訳(メタデータ) (2023-10-24T22:24:44Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Certified Adversarial Robustness via Anisotropic Randomized Smoothing [10.0631242687419]
画素単位の雑音分布に基づいて、証明可能なロバスト性を保証する最初の異方性ランダム化平滑化法を提案する。
また,CNNに基づく新しいノイズ発生器を設計し,各入力中の全画素の画素単位のノイズ分布を効率よく微調整する。
論文 参考訳(メタデータ) (2022-07-12T05:50:07Z) - Double Sampling Randomized Smoothing [19.85592163703077]
二重サンプリングランダム化平滑化フレームワークを提案する。
サンプリングされた確率を、追加の滑らかな分布から利用して、以前の滑らかな分類器の堅牢性認証を強化する。
本研究では,DSRSが既存のデータセットよりも高いロバストラジイを常に異なる設定で証明していることを示す。
論文 参考訳(メタデータ) (2022-06-16T04:34:28Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - Black-Box Certification with Randomized Smoothing: A Functional
Optimization Based Framework [60.981406394238434]
本稿では,非ガウス雑音とより一般的な攻撃に対する対向的認証の一般的な枠組みを提案する。
提案手法は,従来の手法よりも優れた認証結果を得るとともに,ランダム化スムーズな認証の新たな視点を提供する。
論文 参考訳(メタデータ) (2020-02-21T07:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。