論文の概要: Towards Evading the Limits of Randomized Smoothing: A Theoretical
Analysis
- arxiv url: http://arxiv.org/abs/2206.01715v1
- Date: Fri, 3 Jun 2022 17:48:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 15:17:15.129879
- Title: Towards Evading the Limits of Randomized Smoothing: A Theoretical
Analysis
- Title(参考訳): ランダム化平滑化限界の回避に向けて : 理論的解析
- Authors: Raphael Ettedgui, Alexandre Araujo, Rafael Pinot, Yann Chevaleyre,
Jamal Atif
- Abstract要約: 決定境界を複数の雑音分布で探索することにより,任意の精度で最適な証明を近似できることを示す。
この結果は、分類器固有の認証に関するさらなる研究を後押しし、ランダム化された平滑化が依然として調査に値することを示す。
- 参考スコア(独自算出の注目度): 74.85187027051879
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Randomized smoothing is the dominant standard for provable defenses against
adversarial examples. Nevertheless, this method has recently been proven to
suffer from important information theoretic limitations. In this paper, we
argue that these limitations are not intrinsic, but merely a byproduct of
current certification methods. We first show that these certificates use too
little information about the classifier, and are in particular blind to the
local curvature of the decision boundary. This leads to severely sub-optimal
robustness guarantees as the dimension of the problem increases. We then show
that it is theoretically possible to bypass this issue by collecting more
information about the classifier. More precisely, we show that it is possible
to approximate the optimal certificate with arbitrary precision, by probing the
decision boundary with several noise distributions. Since this process is
executed at certification time rather than at test time, it entails no loss in
natural accuracy while enhancing the quality of the certificates. This result
fosters further research on classifier-specific certification and demonstrates
that randomized smoothing is still worth investigating. Although
classifier-specific certification may induce more computational cost, we also
provide some theoretical insight on how to mitigate it.
- Abstract(参考訳): ランダム化平滑化は、敵の例に対する証明可能な防御の主要な標準である。
にもかかわらず、この手法は情報理論上の重要な制限に苦しむことが最近証明されている。
本稿では、これらの制限は本質的ではなく、単に現在の認証方法の副産物であると主張する。
まず、これらの証明書は分類器に関する情報が少なすぎることを示し、特に決定境界の局所曲率に盲目である。
このことは、問題の次元が大きくなるにつれて、非常に準最適ロバスト性を保証する。
次に,分類器に関する情報を収集することで,この問題を回避できることを理論的に示す。
より正確には、複数の雑音分布を持つ決定境界を探索することにより、任意の精度で最適な証明を近似できることが示される。
このプロセスはテスト時間ではなく認証時に実行されるので、証明書の品質を高めながら、自然な精度の損失は伴わない。
この結果は、分類器固有の認証に関するさらなる研究を促進し、ランダム化平滑化が依然として調査に値することを実証する。
分類器固有の認証は計算コストを増大させる可能性があるが、その緩和方法に関する理論的洞察を提供する。
関連論文リスト
- Certified Robustness for Deep Equilibrium Models via Serialized Random Smoothing [12.513566361816684]
Deep Equilibrium Models (DEQ)のような暗黙のモデルは、ディープニューラルネットワークを構築するための有望な代替アプローチとして現れている。
決定論的認証手法を用いた既存のDECの認証防御は、大規模なデータセットでは認証できない。
我々はこれらの制限を解決するために、DECに対する最初のランダム化スムーズな認証防御を提供する。
論文 参考訳(メタデータ) (2024-11-01T06:14:11Z) - Adaptive Hierarchical Certification for Segmentation using Randomized Smoothing [87.48628403354351]
機械学習の認証は、特定の条件下では、敵対的なサンプルが特定の範囲内でモデルを回避できないことを証明している。
セグメンテーションの一般的な認証方法は、平らな粒度のクラスを使い、モデルの不確実性による高い断続率をもたらす。
本稿では,複数レベルの階層内で画素を認証し,不安定なコンポーネントに対して粗いレベルに適応的に認証を緩和する,新しい,より実用的な設定を提案する。
論文 参考訳(メタデータ) (2024-02-13T11:59:43Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Double Bubble, Toil and Trouble: Enhancing Certified Robustness through
Transitivity [27.04033198073254]
ニューラルネットワークモデルの分類を反転させる微妙な敵の例に反応して、最近の研究は、ソリューションとして証明された堅牢性を促進している。
我々は,今日の"最適"証明書が,認証の推移性と入力空間の幾何学の両方を活用することで,どのように改善できるかを示す。
また, 得られた認定半径の4ドルパーセンテージを均一に増加させることにより, さらに有望な結果が得られた。
論文 参考訳(メタデータ) (2022-10-12T10:42:21Z) - Smooth-Reduce: Leveraging Patches for Improved Certified Robustness [100.28947222215463]
本研究では,Smooth-Reduce の学習自由な修正スムース化手法を提案する。
提案アルゴリズムは,入力画像から抽出した重なり合うパッチを分類し,予測ロジットを集約して,入力周辺の半径が大きいことを証明する。
我々は,このような証明書の理論的保証を提供し,他のランダムな平滑化手法に対する顕著な改善を実証的に示す。
論文 参考訳(メタデータ) (2022-05-12T15:26:20Z) - ANCER: Anisotropic Certification via Sample-wise Volume Maximization [134.7866967491167]
本稿では,与えられたテストセットのサンプルに対して,ボリュームを介して異方性証明書を取得するためのフレームワークであるanceRを紹介する。
その結果,CERはCIFAR-10とImageNetの両方で複数の半径で精度を導入し,ボリュームの面ではかなり大きな領域を認証していることがわかった。
論文 参考訳(メタデータ) (2021-07-09T17:42:38Z) - Certifying Neural Network Robustness to Random Input Noise from Samples [14.191310794366075]
入力の不確実性の存在下でのニューラルネットワークの堅牢性を証明する方法は、安全クリティカルな設定において不可欠である。
本稿では,入力雑音が任意の確率分布に従う場合に,誤分類の確率を上限とする新しいロバスト性証明法を提案する。
論文 参考訳(メタデータ) (2020-10-15T05:27:21Z) - Extensions and limitations of randomized smoothing for robustness
guarantees [13.37805637358556]
平滑化対策の相違が最終ロバスト性保証にどのように影響するかを検討する。
我々は,任意の$ell_p$$pinmathbbN_>0$に対するロバスト性を証明する手法を開発した。
論文 参考訳(メタデータ) (2020-06-07T17:22:32Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。