論文の概要: Attention-Guided Black-box Adversarial Attacks with Large-Scale
Multiobjective Evolutionary Optimization
- arxiv url: http://arxiv.org/abs/2101.07512v1
- Date: Tue, 19 Jan 2021 08:48:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 11:21:15.813745
- Title: Attention-Guided Black-box Adversarial Attacks with Large-Scale
Multiobjective Evolutionary Optimization
- Title(参考訳): 大規模多目的進化最適化による注意誘導型ブラックボックス攻撃
- Authors: Jie Wang, Zhaoxia Yin, Jing Jiang, and Yang Du
- Abstract要約: 大規模多目的進化最適化に基づく注意誘導型ブラックボックス対向攻撃を提案する。
画像の空間的な意味情報を考慮することにより、まず注意マップを利用して、乱れたピクセルを決定します。
画像全体を攻撃する代わりに、注意メカニズムで乱れたピクセルを減らすことは、寸法の悪名高い呪いを避けるのに役立ちます。
- 参考スコア(独自算出の注目度): 16.096277139911013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fooling deep neural networks (DNNs) with the black-box optimization has
become a popular adversarial attack fashion, as the structural prior knowledge
of DNNs is always unknown. Nevertheless, recent black-box adversarial attacks
may struggle to balance their attack ability and visual quality of the
generated adversarial examples (AEs) in tackling high-resolution images. In
this paper, we propose an attention-guided black-box adversarial attack based
on the large-scale multiobjective evolutionary optimization, termed as LMOA. By
considering the spatial semantic information of images, we firstly take
advantage of the attention map to determine the perturbed pixels. Instead of
attacking the entire image, reducing the perturbed pixels with the attention
mechanism can help to avoid the notorious curse of dimensionality and thereby
improves the performance of attacking. Secondly, a large-scale multiobjective
evolutionary algorithm is employed to traverse the reduced pixels in the
salient region. Benefiting from its characteristics, the generated AEs have the
potential to fool target DNNs while being imperceptible by the human vision.
Extensive experimental results have verified the effectiveness of the proposed
LMOA on the ImageNet dataset. More importantly, it is more competitive to
generate high-resolution AEs with better visual quality compared with the
existing black-box adversarial attacks.
- Abstract(参考訳): ブラックボックス最適化によるディープニューラルネットワーク(DNN)の処理は、DNNの構造的事前知識が常に不明であるため、一般的な攻撃手法となっている。
しかしながら、最近のブラックボックスの敵攻撃は、高解像度画像に対処する際の攻撃能力と、生成した敵の例(AE)の視覚的品質のバランスをとるのに苦労する可能性がある。
本稿では,LMOAと呼ばれる大規模多目的進化最適化に基づく注意誘導型ブラックボックス対向攻撃を提案する。
画像の空間的意味情報を考慮し,まず注意マップを利用して摂動画素を決定する。
画像全体を攻撃する代わりに、注意機構で乱れたピクセルを減らすことで、悪名高い次元の呪いを回避し、攻撃性能を向上させることができる。
第2に、サリアン領域の縮小画素を横切るために、大規模多目的進化アルゴリズムを用いる。
その特徴から、生成されたAEは、人間の視覚によって認識できないまま、標的のDNNを騙す可能性がある。
画像NetデータセットにおけるLMOAの有効性を実験により検証した。
さらに重要なのは、既存のブラックボックスの敵攻撃と比較して、視覚的品質の優れた高解像度のAEを生成するのが競争力があることだ。
関連論文リスト
- AICAttack: Adversarial Image Captioning Attack with Attention-Based
Optimization [13.99541041673674]
我々は,AICAttackと呼ばれる新たな敵攻撃戦略を提示する。
ブラックボックス攻撃シナリオ内で動作するため、我々のアルゴリズムはターゲットモデルのアーキテクチャ、パラメータ、勾配情報へのアクセスを必要としない。
複数の犠牲者モデルを用いたベンチマークデータセットの広範な実験により,AICAttackの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-19T08:27:23Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - DI-AA: An Interpretable White-box Attack for Fooling Deep Neural
Networks [6.704751710867746]
ディープニューラルネットワーク(DNN)に対するAE攻撃は、ブラックボックスAE攻撃よりも強力な破壊能力を持つ。
本稿では,解釈可能なWhite-box AE攻撃手法であるDI-AAを提案する。
論文 参考訳(メタデータ) (2021-10-14T12:15:58Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - PICA: A Pixel Correlation-based Attentional Black-box Adversarial Attack [37.15301296824337]
PICAと呼ばれる画素相関に基づく注目ブラックボックス対向攻撃を提案する。
PICAは、既存のブラックボックス攻撃と比較して高解像度の逆例を生成するのが効率的である。
論文 参考訳(メタデータ) (2021-01-19T09:53:52Z) - SPAA: Stealthy Projector-based Adversarial Attacks on Deep Image
Classifiers [82.19722134082645]
本稿では,ステルスプロジェクタを用いた対向攻撃を提案する。
PCNetというディープニューラルネットワークを用いて実際のプロジェクトとキャプチャ操作を推定します。
実験の結果,SPAAは高い攻撃成功率を達成し,他の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-12-10T18:14:03Z) - Perception Improvement for Free: Exploring Imperceptible Black-box
Adversarial Attacks on Image Classification [27.23874129994179]
ホワイトボックスの敵攻撃は、特に大きな画像の場合、小さな摂動を伴うニューラルネットワークを騙すことができる。
逆行性摂動を成功させることは、特にトランスファーベースのブラックボックス逆行攻撃では困難である。
本稿では,心理的知覚モデルに基づく対向画像の生成による構造認識型対向攻撃を提案する。
論文 参考訳(メタデータ) (2020-10-30T07:17:12Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Watch out! Motion is Blurring the Vision of Your Deep Neural Networks [34.51270823371404]
最先端のディープニューラルネットワーク(DNN)は、付加的なランダムなノイズ摂動を伴う敵の例に対して脆弱である。
そこで本研究では,視覚的に自然な動きを呈する対向攻撃の例を生成できる新しい対向攻撃法を提案する。
NeurIPS'17競合競合データセットに関する総合的な評価は、ABBAの有効性を示している。
論文 参考訳(メタデータ) (2020-02-10T02:33:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。