論文の概要: Black-box adversarial attacks using Evolution Strategies
- arxiv url: http://arxiv.org/abs/2104.15064v1
- Date: Fri, 30 Apr 2021 15:33:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 14:37:22.051849
- Title: Black-box adversarial attacks using Evolution Strategies
- Title(参考訳): 進化戦略を用いたブラックボックス攻撃
- Authors: Hao Qiu, Leonardo Lucio Custode, Giovanni Iacca
- Abstract要約: 画像分類タスクに対するブラックボックス対向攻撃の生成について検討する。
その結果、攻撃されたニューラルネットワークは、ほとんどの場合、比較中のすべてのアルゴリズムによって簡単に騙されることがわかった。
一部のブラックボックス最適化アルゴリズムは、攻撃成功率と効率の両面で、よりハードな設定で優れている。
- 参考スコア(独自算出の注目度): 3.093890460224435
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the last decade, deep neural networks have proven to be very powerful in
computer vision tasks, starting a revolution in the computer vision and machine
learning fields. However, deep neural networks, usually, are not robust to
perturbations of the input data. In fact, several studies showed that slightly
changing the content of the images can cause a dramatic decrease in the
accuracy of the attacked neural network. Several methods able to generate
adversarial samples make use of gradients, which usually are not available to
an attacker in real-world scenarios. As opposed to this class of attacks,
another class of adversarial attacks, called black-box adversarial attacks,
emerged, which does not make use of information on the gradients, being more
suitable for real-world attack scenarios. In this work, we compare three
well-known evolution strategies on the generation of black-box adversarial
attacks for image classification tasks. While our results show that the
attacked neural networks can be, in most cases, easily fooled by all the
algorithms under comparison, they also show that some black-box optimization
algorithms may be better in "harder" setups, both in terms of attack success
rate and efficiency (i.e., number of queries).
- Abstract(参考訳): 過去10年間で、ディープニューラルネットワークはコンピュータビジョンタスクにおいて非常に強力であることが証明され、コンピュータビジョンと機械学習分野の革命が始まった。
しかし、ディープニューラルネットワークは通常、入力データの摂動に対して堅牢ではない。
実際、いくつかの研究は、画像の内容がわずかに変化すると、攻撃されたニューラルネットワークの精度が劇的に低下する可能性があることを示した。
敵のサンプルを生成できるいくつかの方法は、現実のシナリオでは攻撃者が利用できない勾配を利用する。
このタイプの攻撃とは対照的に、ブラックボックスの敵攻撃と呼ばれる別の種類の敵攻撃が出現し、現実の攻撃シナリオにより適しているため、勾配に関する情報は利用されない。
本研究では,画像分類タスクにおけるブラックボックス攻撃の発生に関する3つの既知の進化戦略を比較した。
我々の結果は、攻撃されたニューラルネットワークは、ほとんどの場合、比較中のすべてのアルゴリズムに簡単に騙される可能性があることを示しているが、攻撃の成功率と効率(クエリ数)の両面で、いくつかのブラックボックス最適化アルゴリズムが"よりハード"な設定で優れていることを示している。
関連論文リスト
- Attacking Graph Neural Networks with Bit Flips: Weisfeiler and Lehman Go Indifferent [0.0]
グラフニューラルネットワークに特化して設計された最初のビットフリップ攻撃を提案する。
我々の攻撃は、量子化されたメッセージパッシングニューラルネットワークにおける学習可能な近隣アグリゲーション機能をターゲットにしている。
この結果から,特定のグラフニューラルネットワークアーキテクチャに特有の数学的特性を利用すると,その脆弱性がビットフリップ攻撃によって著しく増大する可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-02T12:59:32Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - Art-Attack: Black-Box Adversarial Attack via Evolutionary Art [5.760976250387322]
ディープニューラルネットワーク(DNN)は多くのタスクで最先端のパフォーマンスを達成したが、敵の例によって生成された攻撃に対して極端な脆弱性を示している。
本稿では, 進化芸術の概念を用いて, 敵対的事例を生成することによって, 勾配のない攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-07T12:54:09Z) - Thundernna: a white box adversarial attack [0.0]
ニューラルネットワークを攻撃するための一階法を開発した。
他の1次攻撃と比較して、我々の手法は成功率が高い。
論文 参考訳(メタデータ) (2021-11-24T07:06:21Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - Deep neural network loses attention to adversarial images [11.650381752104296]
敵アルゴリズムは様々なタスクにおいてニューラルネットワークに対して有効であることが示されている。
Pixelアタックの場合、乱れたピクセルがネットワークの注意を自分自身に呼び出すか、それらから注意を逸らすかを示す。
また,どちらの攻撃もサリエンシマップとアクティベーションマップに異なる影響を及ぼすことを示した。
論文 参考訳(メタデータ) (2021-06-10T11:06:17Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。