論文の概要: Sharp Statistical Guarantees for Adversarially Robust Gaussian
Classification
- arxiv url: http://arxiv.org/abs/2006.16384v1
- Date: Mon, 29 Jun 2020 21:06:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 13:53:43.796368
- Title: Sharp Statistical Guarantees for Adversarially Robust Gaussian
Classification
- Title(参考訳): 逆ロバストなガウス分類に対する鋭い統計的保証
- Authors: Chen Dan, Yuting Wei, Pradeep Ravikumar
- Abstract要約: 逆向きに頑健な分類の過剰リスクに対する最適ミニマックス保証の最初の結果を提供する。
結果はAdvSNR(Adversarial Signal-to-Noise Ratio)の項で述べられており、これは標準的な線形分類と逆数設定との類似の考え方を一般化している。
- 参考スコア(独自算出の注目度): 54.22421582955454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial robustness has become a fundamental requirement in modern machine
learning applications. Yet, there has been surprisingly little statistical
understanding so far. In this paper, we provide the first result of the optimal
minimax guarantees for the excess risk for adversarially robust classification,
under Gaussian mixture model proposed by \cite{schmidt2018adversarially}. The
results are stated in terms of the Adversarial Signal-to-Noise Ratio (AdvSNR),
which generalizes a similar notion for standard linear classification to the
adversarial setting. For the Gaussian mixtures with AdvSNR value of $r$, we
establish an excess risk lower bound of order $\Theta(e^{-(\frac{1}{8}+o(1))
r^2} \frac{d}{n})$ and design a computationally efficient estimator that
achieves this optimal rate. Our results built upon minimal set of assumptions
while cover a wide spectrum of adversarial perturbations including $\ell_p$
balls for any $p \ge 1$.
- Abstract(参考訳): 現代の機械学習アプリケーションでは、敵対的ロバスト性が基本的な要件となっている。
しかし、これまでのところ統計的な理解は驚くほど少なかった。
本稿では, 対数的ロバストな分類の過大なリスクに対する最適ミニマックス保証の最初の結果について, \cite{schmidt2018adversarially} によって提案されたガウス混合モデルを用いて述べる。
結果はAdvSNR(Adversarial Signal-to-Noise Ratio, AdvSNR)の項で述べられ、標準的な線形分類と逆数設定との類似の概念を一般化する。
AdvSNR値が$r$のガウス混合に対して、位数 $\Theta(e^{-(\frac{1}{8}+o(1)) r^2} \frac{d}{n})$ の過剰リスク下限を確立し、この最適率を達成する計算効率の良い推定器を設計する。
我々の結果は、任意の$p \ge 1$に対して$\ell_p$の球を含む幅広い対向摂動をカバーしながら、最小の仮定に基づいて構築された。
関連論文リスト
- Robust Linear Predictions: Analyses of Uniform Concentration, Fast Rates
and Model Misspecification [16.0817847880416]
ヒルベルト空間上の様々な線形予測問題を含む統一的なフレームワークを提供する。
誤特定レベル $epsilon$ に対して、これらの推定器は、文献で最もよく知られたレートと一致する、$O(maxleft|mathcalO|1/2n-1/2, |mathcalI|1/2n-1 right+epsilon)$ の誤差率を達成する。
論文 参考訳(メタデータ) (2022-01-06T08:51:08Z) - Consistent Estimation for PCA and Sparse Regression with Oblivious
Outliers [13.244654316770815]
我々は効率よく計算可能で一貫した推定器を設計する機械を開発する。
スパース回帰では、最適なサンプルサイズ$ngsim (klog d)/alpha2$の整合性を達成する。
PCAの文脈では、パラメータ行列上の広いスパイキネス仮定の下で最適な誤差を保証する。
論文 参考訳(メタデータ) (2021-11-04T15:59:44Z) - On the robustness of randomized classifiers to adversarial examples [11.359085303200981]
確率指標を用いて局所リプシッツ性を強制するランダム化分類器の堅牢性の新しい概念を紹介する。
本研究の結果は,温和な仮説下での幅広い機械学習モデルに適用可能であることを示す。
トレーニングしたすべての堅牢なモデルは、最新の精度を同時に達成できます。
論文 参考訳(メタデータ) (2021-02-22T10:16:58Z) - Large-Scale Methods for Distributionally Robust Optimization [53.98643772533416]
我々のアルゴリズムは、トレーニングセットのサイズとパラメータの数によらず、多くの評価勾配を必要とすることを証明している。
MNIST と ImageNet の実験により,本手法の 9-36 倍の効率性を持つアルゴリズムの理論的スケーリングが確認された。
論文 参考訳(メタデータ) (2020-10-12T17:41:44Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Estimating Principal Components under Adversarial Perturbations [25.778123431786653]
本研究では,高次元統計的推定問題に対するロバストネスの自然なモデルについて検討する。
我々のモデルは、低精度機械学習や対人訓練といった新しいパラダイムによって動機付けられている。
論文 参考訳(メタデータ) (2020-05-31T20:27:19Z) - Towards Assessment of Randomized Smoothing Mechanisms for Certifying
Adversarial Robustness [50.96431444396752]
主な課題は、各ランダム化メカニズムの適切性を評価する方法である。
まず最初に、ガウスのメカニズムが$ell$-normを証明するための適切な選択肢であると結論付ける。
驚いたことに、ガウスのメカニズムは指数機構の代わりに$ell_infty$-normを証明するための適切な選択肢でもある。
論文 参考訳(メタデータ) (2020-05-15T03:54:53Z) - Toward Adversarial Robustness via Semi-supervised Robust Training [93.36310070269643]
アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威であることが示されている。
R_stand$ と $R_rob$ の2つの異なるリスクを共同で最小化することで、新しい防御手法であるロバストトレーニング(RT)を提案する。
論文 参考訳(メタデータ) (2020-03-16T02:14:08Z) - Curse of Dimensionality on Randomized Smoothing for Certifiable
Robustness [151.67113334248464]
我々は、他の攻撃モデルに対してスムースな手法を拡張することは困難であることを示す。
我々はCIFARに関する実験結果を示し,その理論を検証した。
論文 参考訳(メタデータ) (2020-02-08T22:02:14Z) - Extrapolation Towards Imaginary $0$-Nearest Neighbour and Its Improved
Convergence Rate [13.985534521589257]
そこで我々は,数個の$k ge 1$値から$k=0$まで,未重み付き$k$-NN推定器を外挿する新しいマルチスケール$k$-NN(MS-$k$-NN)を提案する。
提案手法は問合せとその周辺点に適応する最適実数値重みを暗黙的に計算する。
論文 参考訳(メタデータ) (2020-02-08T00:32:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。