論文の概要: Thundernna: a white box adversarial attack
- arxiv url: http://arxiv.org/abs/2111.12305v1
- Date: Wed, 24 Nov 2021 07:06:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 21:17:51.526006
- Title: Thundernna: a white box adversarial attack
- Title(参考訳): サンダーンナ:白い箱の敵の攻撃
- Authors: Linfeng Ye
- Abstract要約: ニューラルネットワークを攻撃するための一階法を開発した。
他の1次攻撃と比較して、我々の手法は成功率が高い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The existing work shows that the neural network trained by naive
gradient-based optimization method is prone to adversarial attacks, adds small
malicious on the ordinary input is enough to make the neural network wrong. At
the same time, the attack against a neural network is the key to improving its
robustness. The training against adversarial examples can make neural networks
resist some kinds of adversarial attacks. At the same time, the adversarial
attack against a neural network can also reveal some characteristics of the
neural network, a complex high-dimensional non-linear function, as discussed in
previous work.
In This project, we develop a first-order method to attack the neural
network. Compare with other first-order attacks, our method has a much higher
success rate. Furthermore, it is much faster than second-order attacks and
multi-steps first-order attacks.
- Abstract(参考訳): 既存の研究によると、ニューラルネットワークは直感的な勾配に基づく最適化法で訓練されており、敵の攻撃を受けやすいため、通常の入力に小さな悪意を加えるだけで、ニューラルネットワークを誤ったものにすることができる。
同時に、ニューラルネットワークに対する攻撃はその堅牢性を改善する鍵となる。
敵の例に対するトレーニングによって、ニューラルネットワークはある種の敵の攻撃に抵抗することができる。
同時に、ニューラルネットワークに対する敵対攻撃は、以前の研究で議論されたような複雑な高次元非線形関数であるニューラルネットワークの特徴を明らかにすることもできる。
本稿では,ニューラルネットワークを攻撃するための一階法を提案する。
他の1次攻撃と比較して、我々の手法は成功率が高い。
さらに、二階攻撃や多段一階攻撃よりもはるかに高速である。
関連論文リスト
- Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - On Neural Network approximation of ideal adversarial attack and
convergence of adversarial training [3.553493344868414]
逆攻撃は通常、入力データとモデルに対する勾配に基づく操作で表現される。
本研究では,さらに計算を行わずに,敵攻撃を訓練可能な関数として表現するという考え方を固める。
論文 参考訳(メタデータ) (2023-07-30T01:04:36Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - Adversarial Robustness is at Odds with Lazy Training [39.18321880557702]
いわゆる遅延状態下で訓練されたネットワークに対して,単一の勾配ステップで逆例を見つけることができることを示す。
これは、このようなよく一般化可能なニューラルネットワークがいまだに敵の攻撃に弱いことを証明する最初の研究である。
論文 参考訳(メタデータ) (2022-06-18T00:51:30Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Adversarial Robustness in Deep Learning: Attacks on Fragile Neurons [0.6899744489931016]
第1畳み込み層の結節投棄を用いて, 深層学習アーキテクチャの脆弱で頑健なニューロンを同定した。
これらのニューロンは,ネットワーク上の敵攻撃の分布と相関する。
論文 参考訳(メタデータ) (2022-01-31T14:34:07Z) - Can You Hear It? Backdoor Attacks via Ultrasonic Triggers [31.147899305987934]
本研究では,自動音声認識システムへのバックドア攻撃の選択肢について検討する。
以上の結果から, 毒性データの1%未満は, バックドア攻撃の実施に十分であり, 100%攻撃成功率に達することが示唆された。
論文 参考訳(メタデータ) (2021-07-30T12:08:16Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Towards Natural Robustness Against Adversarial Examples [35.5696648642793]
ニューラルODEと呼ばれる新しいディープニューラルネットワークの族が、より弱い上限を持つことを示す。
このより弱い上限は、結果の変化量が大きすぎることを防ぐ。
ニューラルネットワークの自然な頑健性は、敵の訓練手法で訓練されたニューラルネットワークの頑健性よりもさらに優れていることを示す。
論文 参考訳(メタデータ) (2020-12-04T08:12:38Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Feature Purification: How Adversarial Training Performs Robust Deep
Learning [66.05472746340142]
ニューラルネットワークのトレーニングプロセス中に隠れた重みに、特定の小さな密度の混合物が蓄積されることが、敵の例の存在の原因の1つであることを示す。
この原理を説明するために、CIFAR-10データセットの両実験と、ある自然な分類タスクに対して、ランダムな勾配勾配勾配を用いた2層ニューラルネットワークをトレーニングすることを証明する理論的結果を示す。
論文 参考訳(メタデータ) (2020-05-20T16:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。