論文の概要: Adversarial Robustness is at Odds with Lazy Training
- arxiv url: http://arxiv.org/abs/2207.00411v1
- Date: Sat, 18 Jun 2022 00:51:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-10 16:30:35.675835
- Title: Adversarial Robustness is at Odds with Lazy Training
- Title(参考訳): 対人ロバストネスは怠け者トレーニングのオッズにある
- Authors: Yunjuan Wang, Enayat Ullah, Poorya Mianjy, Raman Arora
- Abstract要約: いわゆる遅延状態下で訓練されたネットワークに対して,単一の勾配ステップで逆例を見つけることができることを示す。
これは、このようなよく一般化可能なニューラルネットワークがいまだに敵の攻撃に弱いことを証明する最初の研究である。
- 参考スコア(独自算出の注目度): 39.18321880557702
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent works show that random neural networks are vulnerable against
adversarial attacks [Daniely and Schacham, 2020] and that such attacks can be
easily found using a single step of gradient descent [Bubeck et al., 2021]. In
this work, we take it one step further and show that a single gradient step can
find adversarial examples for networks trained in the so-called lazy regime.
This regime is interesting because even though the neural network weights
remain close to the initialization, there exist networks with small
generalization error, which can be found efficiently using first-order methods.
Our work challenges the model of the lazy regime, the dominant regime in which
neural networks are provably efficiently learnable. We show that the networks
trained in this regime, even though they enjoy good theoretical computational
guarantees, remain vulnerable to adversarial examples. To the best of our
knowledge, this is the first work to prove that such well-generalizable neural
networks are still vulnerable to adversarial attacks.
- Abstract(参考訳): 近年の研究では、ランダムニューラルネットワークは敵対的攻撃(Daniely and Schacham, 2020)に対して脆弱であり、そのような攻撃は勾配降下の一段階(Bubeck et al., 2021)で容易に発見できることが示されている。
この研究では、さらに一歩進めて、いわゆる遅延レジームで訓練されたネットワークに対して、1つの勾配ステップで逆の例を見つけることができることを示す。
この仕組みは、ニューラルネットワークの重みが初期化に近くても、一階法で効率的に見つかるような一般化誤差の少ないネットワークが存在する点が興味深い。
我々の研究は、ニューラルネットワークが確実に効率的に学習できる支配的な体制である遅延体制のモデルに挑戦する。
この手法で訓練されたネットワークは、十分な理論計算の保証を享受しながらも、敵の例に対して脆弱であることを示す。
私たちの知る限りでは、このようなよく一般化可能なニューラルネットワークがいまだに敵の攻撃に対して脆弱であることを証明する最初の研究である。
関連論文リスト
- On Neural Network approximation of ideal adversarial attack and
convergence of adversarial training [3.553493344868414]
逆攻撃は通常、入力データとモデルに対する勾配に基づく操作で表現される。
本研究では,さらに計算を行わずに,敵攻撃を訓練可能な関数として表現するという考え方を固める。
論文 参考訳(メタデータ) (2023-07-30T01:04:36Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Thundernna: a white box adversarial attack [0.0]
ニューラルネットワークを攻撃するための一階法を開発した。
他の1次攻撃と比較して、我々の手法は成功率が高い。
論文 参考訳(メタデータ) (2021-11-24T07:06:21Z) - FooBaR: Fault Fooling Backdoor Attack on Neural Network Training [5.639451539396458]
ニューラルネットワークのトレーニングフェーズ中に障害を注入することで,新たな攻撃パラダイムを探索する。
このような攻撃は、トレーニングフェーズの障害攻撃がネットワークにバックドアを注入し、攻撃者が不正な入力を生成できるようにするような、不正なバックドアと呼ばれる。
論文 参考訳(メタデータ) (2021-09-23T09:43:19Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Truly Sparse Neural Networks at Scale [2.2860412844991655]
私たちは、表現力の観点から訓練された史上最大のニューラルネットワークをトレーニングします。
われわれのアプローチは、環境に優しい人工知能時代の道を歩みながら、最先端の性能を持っている。
論文 参考訳(メタデータ) (2021-02-02T20:06:47Z) - Feature Purification: How Adversarial Training Performs Robust Deep
Learning [66.05472746340142]
ニューラルネットワークのトレーニングプロセス中に隠れた重みに、特定の小さな密度の混合物が蓄積されることが、敵の例の存在の原因の1つであることを示す。
この原理を説明するために、CIFAR-10データセットの両実験と、ある自然な分類タスクに対して、ランダムな勾配勾配勾配を用いた2層ニューラルネットワークをトレーニングすることを証明する理論的結果を示す。
論文 参考訳(メタデータ) (2020-05-20T16:56:08Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。