論文の概要: Towards Evading the Limits of Randomized Smoothing: A Theoretical
Analysis
- arxiv url: http://arxiv.org/abs/2206.01715v1
- Date: Fri, 3 Jun 2022 17:48:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 15:17:15.129879
- Title: Towards Evading the Limits of Randomized Smoothing: A Theoretical
Analysis
- Title(参考訳): ランダム化平滑化限界の回避に向けて : 理論的解析
- Authors: Raphael Ettedgui, Alexandre Araujo, Rafael Pinot, Yann Chevaleyre,
Jamal Atif
- Abstract要約: 決定境界を複数の雑音分布で探索することにより,任意の精度で最適な証明を近似できることを示す。
この結果は、分類器固有の認証に関するさらなる研究を後押しし、ランダム化された平滑化が依然として調査に値することを示す。
- 参考スコア(独自算出の注目度): 74.85187027051879
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Randomized smoothing is the dominant standard for provable defenses against
adversarial examples. Nevertheless, this method has recently been proven to
suffer from important information theoretic limitations. In this paper, we
argue that these limitations are not intrinsic, but merely a byproduct of
current certification methods. We first show that these certificates use too
little information about the classifier, and are in particular blind to the
local curvature of the decision boundary. This leads to severely sub-optimal
robustness guarantees as the dimension of the problem increases. We then show
that it is theoretically possible to bypass this issue by collecting more
information about the classifier. More precisely, we show that it is possible
to approximate the optimal certificate with arbitrary precision, by probing the
decision boundary with several noise distributions. Since this process is
executed at certification time rather than at test time, it entails no loss in
natural accuracy while enhancing the quality of the certificates. This result
fosters further research on classifier-specific certification and demonstrates
that randomized smoothing is still worth investigating. Although
classifier-specific certification may induce more computational cost, we also
provide some theoretical insight on how to mitigate it.
- Abstract(参考訳): ランダム化平滑化は、敵の例に対する証明可能な防御の主要な標準である。
にもかかわらず、この手法は情報理論上の重要な制限に苦しむことが最近証明されている。
本稿では、これらの制限は本質的ではなく、単に現在の認証方法の副産物であると主張する。
まず、これらの証明書は分類器に関する情報が少なすぎることを示し、特に決定境界の局所曲率に盲目である。
このことは、問題の次元が大きくなるにつれて、非常に準最適ロバスト性を保証する。
次に,分類器に関する情報を収集することで,この問題を回避できることを理論的に示す。
より正確には、複数の雑音分布を持つ決定境界を探索することにより、任意の精度で最適な証明を近似できることが示される。
このプロセスはテスト時間ではなく認証時に実行されるので、証明書の品質を高めながら、自然な精度の損失は伴わない。
この結果は、分類器固有の認証に関するさらなる研究を促進し、ランダム化平滑化が依然として調査に値することを実証する。
分類器固有の認証は計算コストを増大させる可能性があるが、その緩和方法に関する理論的洞察を提供する。
関連論文リスト
- The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [91.51897617724816]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
本稿では,モンテカルロサンプリングによるランダムな平滑化過程推定における分散が,分類器のリプシッツ定数とマージンと密接な相互作用を示す。
我々はベルンシュタインの濃度不等式と拡張されたリプシッツ境界をランダム化平滑化に利用し、実験結果から現在の最先端手法と比較して精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Double Bubble, Toil and Trouble: Enhancing Certified Robustness through
Transitivity [27.04033198073254]
ニューラルネットワークモデルの分類を反転させる微妙な敵の例に反応して、最近の研究は、ソリューションとして証明された堅牢性を促進している。
我々は,今日の"最適"証明書が,認証の推移性と入力空間の幾何学の両方を活用することで,どのように改善できるかを示す。
また, 得られた認定半径の4ドルパーセンテージを均一に増加させることにより, さらに有望な結果が得られた。
論文 参考訳(メタデータ) (2022-10-12T10:42:21Z) - Smooth-Reduce: Leveraging Patches for Improved Certified Robustness [100.28947222215463]
本研究では,Smooth-Reduce の学習自由な修正スムース化手法を提案する。
提案アルゴリズムは,入力画像から抽出した重なり合うパッチを分類し,予測ロジットを集約して,入力周辺の半径が大きいことを証明する。
我々は,このような証明書の理論的保証を提供し,他のランダムな平滑化手法に対する顕著な改善を実証的に示す。
論文 参考訳(メタデータ) (2022-05-12T15:26:20Z) - ANCER: Anisotropic Certification via Sample-wise Volume Maximization [134.7866967491167]
本稿では,与えられたテストセットのサンプルに対して,ボリュームを介して異方性証明書を取得するためのフレームワークであるanceRを紹介する。
その結果,CERはCIFAR-10とImageNetの両方で複数の半径で精度を導入し,ボリュームの面ではかなり大きな領域を認証していることがわかった。
論文 参考訳(メタデータ) (2021-07-09T17:42:38Z) - Deterministic Certification to Adversarial Attacks via Bernstein
Polynomial Approximation [5.392822954974537]
ランダム化された平滑化は、高い確率で$ell$標準敵攻撃に対する最先端の証明可能な堅牢性を確立している。
自然の精度を維持しながらランダム化せずにスムーズな分類器を構築することは可能か?
本手法は,決定境界平滑化のための決定論的アルゴリズムを提供する。
また、非線形方程式系の数値解を通したノルム非独立性証明ロバストネスの特異なアプローチも導入する。
論文 参考訳(メタデータ) (2020-11-28T08:27:42Z) - Certifying Neural Network Robustness to Random Input Noise from Samples [14.191310794366075]
入力の不確実性の存在下でのニューラルネットワークの堅牢性を証明する方法は、安全クリティカルな設定において不可欠である。
本稿では,入力雑音が任意の確率分布に従う場合に,誤分類の確率を上限とする新しいロバスト性証明法を提案する。
論文 参考訳(メタデータ) (2020-10-15T05:27:21Z) - Extensions and limitations of randomized smoothing for robustness
guarantees [13.37805637358556]
平滑化対策の相違が最終ロバスト性保証にどのように影響するかを検討する。
我々は,任意の$ell_p$$pinmathbbN_>0$に対するロバスト性を証明する手法を開発した。
論文 参考訳(メタデータ) (2020-06-07T17:22:32Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。