論文の概要: Certified Robustness against Sparse Adversarial Perturbations via Data Localization
- arxiv url: http://arxiv.org/abs/2405.14176v1
- Date: Thu, 23 May 2024 05:02:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 18:55:13.776952
- Title: Certified Robustness against Sparse Adversarial Perturbations via Data Localization
- Title(参考訳): データローカライゼーションによるスパース対向摂動に対する認証ロバスト性
- Authors: Ambar Pal, René Vidal, Jeremias Sulam,
- Abstract要約: 本論では,MNISTデータセットとFashion-MNISTデータセットのスパース攻撃に対する信頼性の高いロバスト性において,この問題の幾何学を自然に組み込んだ単純な分類器であるBox-NNについて述べる。
- 参考スコア(独自算出の注目度): 39.883465335244594
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work in adversarial robustness suggests that natural data distributions are localized, i.e., they place high probability in small volume regions of the input space, and that this property can be utilized for designing classifiers with improved robustness guarantees for $\ell_2$-bounded perturbations. Yet, it is still unclear if this observation holds true for more general metrics. In this work, we extend this theory to $\ell_0$-bounded adversarial perturbations, where the attacker can modify a few pixels of the image but is unrestricted in the magnitude of perturbation, and we show necessary and sufficient conditions for the existence of $\ell_0$-robust classifiers. Theoretical certification approaches in this regime essentially employ voting over a large ensemble of classifiers. Such procedures are combinatorial and expensive or require complicated certification techniques. In contrast, a simple classifier emerges from our theory, dubbed Box-NN, which naturally incorporates the geometry of the problem and improves upon the current state-of-the-art in certified robustness against sparse attacks for the MNIST and Fashion-MNIST datasets.
- Abstract(参考訳): 逆ロバスト性に関する最近の研究は、自然データ分布が局所化されていることを示唆している。すなわち、入力空間の小さな体積領域に高い確率を配置し、この性質は$\ell_2$-bounded 摂動に対するロバスト性を保証するような分類器の設計に利用できる。
しかし、この観測がより一般的な指標に当てはまるかどうかはまだ不明である。
本研究では、この理論を$\ell_0$-bounded adversarial perturbationsに拡張し、攻撃者は画像のいくつかのピクセルを修正できるが、摂動の大きさが制限されないようにし、$\ell_0$-robust 分類器の存在に必要な条件を示す。
この体制における理論的認証のアプローチは、本質的には分類器の大規模な集合に対する投票を採用する。
このような手順は組み合わさって費用がかかるか、複雑な認証技術を必要とする。
対照的に、単純な分類器であるBox-NNは、自然に問題の幾何学を取り入れ、MNISTおよびFashion-MNISTデータセットのスパース攻撃に対する信頼性の高いロバスト性において、現在の最先端技術を改善する。
関連論文リスト
- Generalization Properties of Adversarial Training for $\ell_0$-Bounded
Adversarial Attacks [47.22918498465056]
本稿では,ニューラルネットワークの重要なクラスに対する対人訓練の性能を理論的に特徴付けることを目的とする。
この設定での一般化の導出には2つの大きな課題がある。
論文 参考訳(メタデータ) (2024-02-05T22:57:33Z) - Projected Randomized Smoothing for Certified Adversarial Robustness [9.771011198361865]
ランダム化平滑化(Randomized smoothing)は、証明可能な堅牢な分類器を生成する最先端の手法である。
近年の研究では、異なる標準球や異方性領域に対する証明可能な堅牢性が一般化されている。
提案手法は, 最先端の精度を桁違いに向上することを示す。
論文 参考訳(メタデータ) (2023-09-25T01:12:55Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - Consistent Non-Parametric Methods for Adaptive Robustness [26.016647703500887]
標準のロバストな学習フレームワークの大きな欠点は、すべての入力に適用される人工的なロバスト性半径$r$の固定です。
本稿では, 適応ロバスト性のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-18T00:44:07Z) - Adversarial Robustness of Supervised Sparse Coding [34.94566482399662]
表現を学習すると同時に、正確な一般化境界と堅牢性証明を与えるモデルを考える。
線形エンコーダと組み合わされたスパーシティプロモーティングエンコーダを組み合わせた仮説クラスに着目した。
エンドツーエンドの分類のための堅牢性証明を提供する。
論文 参考訳(メタデータ) (2020-10-22T22:05:21Z) - Certified Distributional Robustness on Smoothed Classifiers [27.006844966157317]
本稿では,ロバスト性証明として,入力分布に対する最悪の逆損失を提案する。
双対性と滑らか性を利用して、証明書のサロゲートとして容易に計算できる上限を与える。
論文 参考訳(メタデータ) (2020-10-21T13:22:25Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - Uncertainty-Aware Consistency Regularization for Cross-Domain Semantic
Segmentation [63.75774438196315]
Unsupervised Domain adapt (UDA) は、未ラベルのデータのみを持つ新しいターゲットドメインにソースドメインの既存のモデルを適用することを目的としている。
既存のほとんどの手法は、エラーを起こしやすい識別器ネットワークまたは不合理な教師モデルから生じる顕著な負の伝達に悩まされている。
ドメイン間セマンティックセグメンテーションのための不確実性を考慮した整合性正規化手法を提案する。
論文 参考訳(メタデータ) (2020-04-19T15:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。