論文の概要: Universal Adversarial Attack on Attention and the Resulting Dataset
DAmageNet
- arxiv url: http://arxiv.org/abs/2001.06325v3
- Date: Wed, 21 Oct 2020 09:10:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 23:44:38.335073
- Title: Universal Adversarial Attack on Attention and the Resulting Dataset
DAmageNet
- Title(参考訳): 注意に対するユニバーサル・アタックと結果データセットDAmageNet
- Authors: Sizhe Chen, Zhengbao He, Chengjin Sun, Jie Yang, Xiaolin Huang
- Abstract要約: ディープニューラルネットワーク(DNN)に対する敵対的な攻撃は、数年前から発見されている。
DNNが共有するセマンティックプロパティであるアタック・オン・アテンション(AoA)を提案する。
我々は、ImageNetバリデーションセットから50万の敵対的サンプルを生成し、多くのニューラルネットワークを破り、データセットをDAmageNetと命名する。
- 参考スコア(独自算出の注目度): 18.043192473747737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks on deep neural networks (DNNs) have been found for
several years. However, the existing adversarial attacks have high success
rates only when the information of the victim DNN is well-known or could be
estimated by the structure similarity or massive queries. In this paper, we
propose to Attack on Attention (AoA), a semantic property commonly shared by
DNNs. AoA enjoys a significant increase in transferability when the traditional
cross entropy loss is replaced with the attention loss. Since AoA alters the
loss function only, it could be easily combined with other
transferability-enhancement techniques and then achieve SOTA performance. We
apply AoA to generate 50000 adversarial samples from ImageNet validation set to
defeat many neural networks, and thus name the dataset as DAmageNet. 13
well-trained DNNs are tested on DAmageNet, and all of them have an error rate
over 85%. Even with defenses or adversarial training, most models still
maintain an error rate over 70% on DAmageNet. DAmageNet is the first universal
adversarial dataset. It could be downloaded freely and serve as a benchmark for
robustness testing and adversarial training.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)に対する敵対的な攻撃は、数年前から発見されている。
しかし、既存の敵攻撃は、被害者のDNNの情報がよく知られており、構造的類似性や大量のクエリによって推定できる場合にのみ、高い成功率を有する。
本稿では,DNNが共有する意味的特性であるアタック・オン・アテンション(AoA)を提案する。
aoaは、従来のクロスエントロピー損失が注意損失に置き換えられると、転送性が大幅に向上する。
AoAは損失関数のみを変更するため、他の転送可能性向上技術と簡単に組み合わせてSOTA性能を実現することができる。
我々は、AoAを適用して、ImageNetバリデーションセットから50000個の敵サンプルを生成し、多くのニューラルネットワークを倒し、データセットをDAmageNetと命名する。
13のよく訓練されたDNNがDAmageNetでテストされており、いずれもエラー率は85%を超えている。
防衛や敵の訓練にもかかわらず、ほとんどのモデルはDAmageNetで70%以上のエラー率を維持している。
DAmageNetは、最初の普遍的敵対的データセットである。
無料でダウンロード可能で、堅牢性テストと敵意トレーニングのベンチマークとして機能する。
関連論文リスト
- Exploring DNN Robustness Against Adversarial Attacks Using Approximate Multipliers [1.3820778058499328]
ディープニューラルネットワーク(DNN)は、ヘルスケアや自動運転など、多くの現実世界のアプリケーションで進歩している。
高い計算複雑性と敵攻撃に対する脆弱性は、現在進行中の課題である。
DNN層モデルにおける最先端近似乗算器の高精度な乗算器を均一に置き換えることで、DNNの様々な敵攻撃に対するロバスト性を、実現可能な時間で探索する。
論文 参考訳(メタデータ) (2024-04-17T18:03:12Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Quantization Aware Attack: Enhancing Transferable Adversarial Attacks by Model Quantization [57.87950229651958]
量子ニューラルネットワーク(QNN)は、異常な一般化性のため、リソース制約のあるシナリオに注目が集まっている。
従来の研究では、ビット幅の異なるQNN間で転送性を実現することは困難であった。
マルチビット学習目的のQNN代替モデルを微調整するテキスト品質認識攻撃(QAA)を提案する。
論文 参考訳(メタデータ) (2023-05-10T03:46:53Z) - Is Approximation Universally Defensive Against Adversarial Attacks in
Deep Neural Networks? [0.0]
本稿では, 最先端の近似乗算器を用いて, 異なる近似DNNアクセラレータ (AxDNN) の逆解析を行う。
以上の結果から,AxDNNに対する敵対攻撃は53%の精度低下を引き起こすが,同一の攻撃は精度低下をほとんど起こさない可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-02T19:01:36Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Towards Universal Physical Attacks On Cascaded Camera-Lidar 3D Object
Detection Models [16.7400223249581]
マルチモーダル深層学習ネットワーク(DNN)に対する普遍的かつ物理的に実現可能な敵対的攻撃を提案する。
提案されたユニバーサルマルチモーダル攻撃は、モデルが車を73%近く検出する能力を低下させることに成功したことを示す。
論文 参考訳(メタデータ) (2021-01-26T12:40:34Z) - HaS-Nets: A Heal and Select Mechanism to Defend DNNs Against Backdoor
Attacks for Data Collection Scenarios [23.898803100714957]
ロー信頼バックドア攻撃」は、有毒な訓練サンプルに割り当てられた信頼ラベルを悪用する。
HaS-Nets"はデータセットから独立して、AISを90%以上から15%未満に削減することができる。
論文 参考訳(メタデータ) (2020-12-14T12:47:41Z) - A Panda? No, It's a Sloth: Slowdown Attacks on Adaptive Multi-Exit
Neural Network Inference [6.320009081099895]
スローダウン攻撃は、マルチエクイットDNNの有効性を90-100%削減し、典型的なIoTデプロイメントにおいて1.5~5$times$のレイテンシを増幅する。
汎用的で再利用可能な摂動を構築でき、攻撃は現実的なブラックボックスのシナリオで有効であることを示す。
論文 参考訳(メタデータ) (2020-10-06T02:06:52Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。