論文の概要: Origins of Low-dimensional Adversarial Perturbations
- arxiv url: http://arxiv.org/abs/2203.13779v1
- Date: Fri, 25 Mar 2022 17:02:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 12:40:01.581777
- Title: Origins of Low-dimensional Adversarial Perturbations
- Title(参考訳): 低次元対向摂動の起源
- Authors: Elvis Dohmatob, Chuan Guo, Morgane Goibert
- Abstract要約: 分類における低次元対向摂動現象について検討した。
目標は、分類器を騙して、指定されたクラスからの入力のゼロではない割合でその決定を反転させることである。
任意の部分空間のばかばかし率の低いバウンドを計算する。
- 参考スコア(独自算出の注目度): 17.17170592140042
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this note, we initiate a rigorous study of the phenomenon of
low-dimensional adversarial perturbations in classification. These are
adversarial perturbations wherein, unlike the classical setting, the attacker's
search is limited to a low-dimensional subspace of the feature space. The goal
is to fool the classifier into flipping its decision on a nonzero fraction of
inputs from a designated class, upon the addition of perturbations from a
subspace chosen by the attacker and fixed once and for all. It is desirable
that the dimension $k$ of the subspace be much smaller than the dimension $d$
of the feature space, while the norm of the perturbations should be negligible
compared to the norm of a typical data point. In this work, we consider binary
classification models under very general regularity conditions, which are
verified by certain feedforward neural networks (e.g., with sufficiently
smooth, or else ReLU activation function), and compute analytical lower-bounds
for the fooling rate of any subspace. These bounds explicitly highlight the
dependence that the fooling rate has on the margin of the model (i.e., the
ratio of the output to its $L_2$-norm of its gradient at a test point), and on
the alignment of the given subspace with the gradients of the model w.r.t.
inputs. Our results provide a theoretical explanation for the recent success of
heuristic methods for efficiently generating low-dimensional adversarial
perturbations. Moreover, our theoretical results are confirmed by experiments.
- Abstract(参考訳): 本稿では,分類における低次元逆摂動現象の厳密な研究を開始する。
これらは敵対的摂動であり、古典的な設定とは異なり、攻撃者の探索は特徴空間の低次元部分空間に限定される。
その目的は、攻撃者が選択したサブスペースからの摂動の追加によって、指定されたクラスからの入力のゼロでない部分で決定を覆すように分類器を騙すことである。
部分空間の次元$k$は特徴空間の次元$d$よりもはるかに小さいのが望ましいが、摂動のノルムは典型的なデータ点のノルムと比べて無視できる。
本研究では,特定のフィードフォワードニューラルネットワーク(例えば,十分にスムーズなReLUアクティベーション関数)によって検証される,非常に一般的な規則性条件下でのバイナリ分類モデルと,任意の部分空間の不正化率に対する解析的下限を考察する。
これらの境界は、愚か化率がモデルのマージン(すなわち、試験点におけるその勾配の$L_2$-normに対する出力の比率)と与えられた部分空間とモデルのw.r.t.入力の勾配とのアライメントに依存していることを明確に示している。
本研究では,低次元逆摂動を効率的に生成するためのヒューリスティック手法の最近の成功を理論的に説明する。
さらに,実験により理論的結果を確認した。
関連論文リスト
- Subspace Defense: Discarding Adversarial Perturbations by Learning a Subspace for Clean Signals [52.123343364599094]
敵の攻撃は、正常な例に基づいて慎重に摂動を行い、ディープニューラルネットワーク(DNN)を騙す
まず,低次元線形部分空間において,クリーン信号と逆方向の摂動の特徴が冗長であり,重なりが最小であることを示す。
これにより、DNNは、摂動が破棄されている間、クリーン信号の特徴のみが存在する部分空間を学習することができる。
論文 参考訳(メタデータ) (2024-03-24T14:35:44Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - Towards Optimal Sobolev Norm Rates for the Vector-Valued Regularized Least-Squares Algorithm [30.08981916090924]
無限次元ベクトル値リッジ回帰の最初の最適速度を、$L$と仮説空間の間を補間するノルムの連続スケールに提示する。
これらの値は、ほとんどの場合最適であり、出力空間の次元に依存しないことを示す。
論文 参考訳(メタデータ) (2023-12-12T11:48:56Z) - On the Identification and Optimization of Nonsmooth Superposition
Operators in Semilinear Elliptic PDEs [3.045851438458641]
原型半線形楕円偏微分方程式(PDE)の非線形部分におけるネミトスキー作用素の同定を目的とした無限次元最適化問題について検討する。
以前の研究とは対照的に、ネミトスキー作用素を誘導する関数が a-priori であることは、$H leakyloc(mathbbR)$ の要素であることが知られている。
論文 参考訳(メタデータ) (2023-06-08T13:33:20Z) - Random Smoothing Regularization in Kernel Gradient Descent Learning [24.383121157277007]
古典的ソボレフ空間に属する幅広い基底真理関数を適応的に学習できるランダムなスムーズな正規化のための枠組みを提案する。
我々の推定器は、基礎となるデータの構造的仮定に適応し、次元の呪いを避けることができる。
論文 参考訳(メタデータ) (2023-05-05T13:37:34Z) - Optimal Discriminant Analysis in High-Dimensional Latent Factor Models [1.4213973379473654]
高次元分類問題において、一般的に用いられるアプローチは、まず高次元の特徴を低次元空間に射影することである。
我々は、この2段階の手順を正当化するために、隠れた低次元構造を持つ潜在変数モデルを定式化する。
観測された特徴の特定の主成分(PC)を射影とする計算効率の良い分類器を提案する。
論文 参考訳(メタデータ) (2022-10-23T21:45:53Z) - Beyond the Edge of Stability via Two-step Gradient Updates [49.03389279816152]
Gradient Descent(GD)は、現代の機械学習の強力な仕事場である。
GDが局所最小値を見つける能力は、リプシッツ勾配の損失に対してのみ保証される。
この研究は、2段階の勾配更新の分析を通じて、単純だが代表的でありながら、学習上の問題に焦点をあてる。
論文 参考訳(メタデータ) (2022-06-08T21:32:50Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - The Interplay Between Implicit Bias and Benign Overfitting in Two-Layer
Linear Networks [51.1848572349154]
ノイズの多いデータに完全に適合するニューラルネットワークモデルは、見当たらないテストデータにうまく一般化できる。
我々は,2層線形ニューラルネットワークを2乗損失の勾配流で補間し,余剰リスクを導出する。
論文 参考訳(メタデータ) (2021-08-25T22:01:01Z) - On the Role of Optimization in Double Descent: A Least Squares Study [30.44215064390409]
最小二乗対象の降下勾配解に対して過大なリスクを負うことを示す。
ノイズのない回帰の場合、二重降下は最適化関連量によってのみ説明される。
ニューラルネットワークの予測が保たれているかどうかを実証的に調査する。
論文 参考訳(メタデータ) (2021-07-27T09:13:11Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。