論文の概要: SPLITZ: Certifiable Robustness via Split Lipschitz Randomized Smoothing
- arxiv url: http://arxiv.org/abs/2407.02811v2
- Date: Wed, 26 Feb 2025 05:01:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:52:47.707169
- Title: SPLITZ: Certifiable Robustness via Split Lipschitz Randomized Smoothing
- Title(参考訳): SPLITZ: スプリットリプシッツランダム化平滑化によるロバスト性証明
- Authors: Meiyu Zhong, Ravi Tandon,
- Abstract要約: SPLITZは、敵の例に証明可能な堅牢性を提供するための実用的で斬新なアプローチである。
SPLITZのモチベーションは、多くの標準ディープネットワークがリプシッツ定数の不均一性を示すという観察から来ている。
SPLITZは、MNIST、CIFAR-10、ImageNetデータセットにおける既存の最先端のアプローチを一貫して改善することを示す。
- 参考スコア(独自算出の注目度): 8.471466670802817
- License:
- Abstract: Certifiable robustness gives the guarantee that small perturbations around an input to a classifier will not change the prediction. There are two approaches to provide certifiable robustness to adversarial examples: a) explicitly training classifiers with small Lipschitz constants, and b) Randomized smoothing, which adds random noise to the input to create a smooth classifier. We propose SPLITZ, a practical and novel approach which leverages the synergistic benefits of both the above ideas into a single framework. Our main idea is to split a classifier into two halves, constrain the Lipschitz constant of the first half, and smooth the second half via randomization. Motivation for SPLITZ comes from the observation that many standard deep networks exhibit heterogeneity in Lipschitz constants across layers. SPLITZ can exploit this heterogeneity while inheriting the scalability of randomized smoothing. We present a principled approach to train SPLITZ and provide theoretical analysis to derive certified robustness guarantees during inference. We present a comprehensive comparison of robustness-accuracy trade-offs and show that SPLITZ consistently improves on existing state-of-the-art approaches in the MNIST, CIFAR-10 and ImageNet datasets. For instance, with $\ell_2$ norm perturbation budget of $\epsilon=1$, SPLITZ achieves $43.2\%$ top-1 test accuracy on CIFAR-10 dataset compared to state-of-art top-1 test accuracy $39.8\%$.
- Abstract(参考訳): 証明可能な堅牢性は、分類器への入力に関する小さな摂動が予測を変えることはないことを保証している。
敵の例に対して証明可能な堅牢性を提供するための2つのアプローチがある。
a)小さなリプシッツ定数で明示的に分類器を訓練し、
b) ランダム化スムース化は、入力にランダムノイズを加えてスムーズな分類子を作成する。
本稿では,これら2つのアイデアの相乗効果を一つのフレームワークに活用する,実用的で斬新なアプローチであるSPLITZを提案する。
第一の考え方は、分類器を2つの半辺に分割し、前半のリプシッツ定数を制約し、後半をランダム化して滑らかにすることである。
SPLITZのモチベーションは、多くの標準ディープネットワークが層間におけるリプシッツ定数の不均一性を示すという観察から来ている。
SPLITZは、ランダムな平滑化のスケーラビリティを継承しながら、この不均一性を活用できる。
本稿では,SPLITZを訓練するための原則的アプローチを提案する。
本稿では,MNIST,CIFAR-10,ImageNetデータセットにおいて,SPLITZが既存の最先端アプローチを一貫して改善していることを示す。
例えば、$\ell_2$ norm perturbation budget of $\epsilon=1$のSPLITZは、CIFAR-10データセットで43.2\%のトップ1テスト精度を達成する。
関連論文リスト
- The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Certified Adversarial Robustness Within Multiple Perturbation Bounds [38.3813286696956]
ランダムスムーシング(Randomized smoothing、RS)は、敵の攻撃に対するよく知られた防御である。
本研究では,複数の摂動境界に対して同時に認証された対向ロバスト性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-04-20T16:42:44Z) - Improved techniques for deterministic l2 robustness [63.34032156196848]
畳み込みニューラルネットワーク(CNN)を$l_2$ノルムの下で厳密な1-Lipschitz制約で訓練することは、対向的堅牢性、解釈可能な勾配、安定した訓練に有用である。
我々は,最後の線形層を1重層に置き換えることで,1-Lipschitz CNNのロバスト性を証明する手法を提案する。
我々は,CIFAR-10およびCIFAR-100における標準および証明可能な堅牢な精度の最先端化を図る。
論文 参考訳(メタデータ) (2022-11-15T19:10:12Z) - Metric-Fair Classifier Derandomization [6.269732593554894]
機械学習における分類器のデランドマイズ問題について検討する。
事前のデランドマイズ法は, ほぼ最大値の不等式であることを示す。
我々はこれらの2つの間の魅力的なトレードオフを提供するデランドマイズ手順を考案する。
論文 参考訳(メタデータ) (2022-06-15T21:36:57Z) - Improved, Deterministic Smoothing for L1 Certified Robustness [119.86676998327864]
分割雑音を伴う非加法的決定論的平滑化法(dssn)を提案する。
一様加法平滑化とは対照的に、ssn認証は無作為なノイズコンポーネントを独立に必要としない。
これは、規範ベースの敵対的脅威モデルに対して決定論的「ランダム化平滑化」を提供する最初の仕事である。
論文 参考訳(メタデータ) (2021-03-17T21:49:53Z) - On the robustness of randomized classifiers to adversarial examples [11.359085303200981]
確率指標を用いて局所リプシッツ性を強制するランダム化分類器の堅牢性の新しい概念を紹介する。
本研究の結果は,温和な仮説下での幅広い機械学習モデルに適用可能であることを示す。
トレーニングしたすべての堅牢なモデルは、最新の精度を同時に達成できます。
論文 参考訳(メタデータ) (2021-02-22T10:16:58Z) - Almost Tight L0-norm Certified Robustness of Top-k Predictions against
Adversarial Perturbations [78.23408201652984]
トップk予測は、マシンラーニング・アズ・ア・サービス、レコメンダ・システム、Web検索など、多くの現実世界のアプリケーションで使用されている。
我々の研究はランダム化平滑化に基づいており、入力をランダム化することで、証明可能なロバストな分類器を構築する。
例えば、攻撃者がテスト画像の5ピクセルを任意に摂動できる場合に、ImageNet上で69.2%の認定トップ3精度を達成する分類器を構築することができる。
論文 参考訳(メタデータ) (2020-11-15T21:34:44Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - Provable Robust Classification via Learned Smoothed Densities [1.599072005190786]
雑音の測定値から、$widehatx(Y)$, $textitBayes estimator$$ $X$という、ロバストな分類の問題を定式化する。
学習されたスムーズなエネルギー関数と線形分類器により、経験的防御と競合する堅牢な精度の証明可能な$ellを達成できることが示される。
論文 参考訳(メタデータ) (2020-05-09T19:52:32Z) - Black-Box Certification with Randomized Smoothing: A Functional
Optimization Based Framework [60.981406394238434]
本稿では,非ガウス雑音とより一般的な攻撃に対する対向的認証の一般的な枠組みを提案する。
提案手法は,従来の手法よりも優れた認証結果を得るとともに,ランダム化スムーズな認証の新たな視点を提供する。
論文 参考訳(メタデータ) (2020-02-21T07:52:47Z) - Randomized Smoothing of All Shapes and Sizes [29.40896576138737]
最適」ノルムの適切な概念に対して、任意の「ニッチ」ノルムに対する最適な滑らか化はノルムの *Wulff Crystal* によって与えられるレベル集合を持つことを示す。
ここでは、*バナッハ空間コタイプ*の理論を通して、現在のランダム化平滑化技術に基本的な限界を示す。
論文 参考訳(メタデータ) (2020-02-19T11:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。