論文の概要: Attention-Guided Black-box Adversarial Attacks with Large-Scale
Multiobjective Evolutionary Optimization
- arxiv url: http://arxiv.org/abs/2101.07512v1
- Date: Tue, 19 Jan 2021 08:48:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 11:21:15.813745
- Title: Attention-Guided Black-box Adversarial Attacks with Large-Scale
Multiobjective Evolutionary Optimization
- Title(参考訳): 大規模多目的進化最適化による注意誘導型ブラックボックス攻撃
- Authors: Jie Wang, Zhaoxia Yin, Jing Jiang, and Yang Du
- Abstract要約: 大規模多目的進化最適化に基づく注意誘導型ブラックボックス対向攻撃を提案する。
画像の空間的な意味情報を考慮することにより、まず注意マップを利用して、乱れたピクセルを決定します。
画像全体を攻撃する代わりに、注意メカニズムで乱れたピクセルを減らすことは、寸法の悪名高い呪いを避けるのに役立ちます。
- 参考スコア(独自算出の注目度): 16.096277139911013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fooling deep neural networks (DNNs) with the black-box optimization has
become a popular adversarial attack fashion, as the structural prior knowledge
of DNNs is always unknown. Nevertheless, recent black-box adversarial attacks
may struggle to balance their attack ability and visual quality of the
generated adversarial examples (AEs) in tackling high-resolution images. In
this paper, we propose an attention-guided black-box adversarial attack based
on the large-scale multiobjective evolutionary optimization, termed as LMOA. By
considering the spatial semantic information of images, we firstly take
advantage of the attention map to determine the perturbed pixels. Instead of
attacking the entire image, reducing the perturbed pixels with the attention
mechanism can help to avoid the notorious curse of dimensionality and thereby
improves the performance of attacking. Secondly, a large-scale multiobjective
evolutionary algorithm is employed to traverse the reduced pixels in the
salient region. Benefiting from its characteristics, the generated AEs have the
potential to fool target DNNs while being imperceptible by the human vision.
Extensive experimental results have verified the effectiveness of the proposed
LMOA on the ImageNet dataset. More importantly, it is more competitive to
generate high-resolution AEs with better visual quality compared with the
existing black-box adversarial attacks.
- Abstract(参考訳): ブラックボックス最適化によるディープニューラルネットワーク(DNN)の処理は、DNNの構造的事前知識が常に不明であるため、一般的な攻撃手法となっている。
しかしながら、最近のブラックボックスの敵攻撃は、高解像度画像に対処する際の攻撃能力と、生成した敵の例(AE)の視覚的品質のバランスをとるのに苦労する可能性がある。
本稿では,LMOAと呼ばれる大規模多目的進化最適化に基づく注意誘導型ブラックボックス対向攻撃を提案する。
画像の空間的意味情報を考慮し,まず注意マップを利用して摂動画素を決定する。
画像全体を攻撃する代わりに、注意機構で乱れたピクセルを減らすことで、悪名高い次元の呪いを回避し、攻撃性能を向上させることができる。
第2に、サリアン領域の縮小画素を横切るために、大規模多目的進化アルゴリズムを用いる。
その特徴から、生成されたAEは、人間の視覚によって認識できないまま、標的のDNNを騙す可能性がある。
画像NetデータセットにおけるLMOAの有効性を実験により検証した。
さらに重要なのは、既存のブラックボックスの敵攻撃と比較して、視覚的品質の優れた高解像度のAEを生成するのが競争力があることだ。
関連論文リスト
- Semantic-Aligned Adversarial Evolution Triangle for High-Transferability Vision-Language Attack [51.16384207202798]
視覚言語事前学習モデルは多モーダル逆例(AE)に対して脆弱である
従来のアプローチでは、画像とテキストのペアを拡大して、敵対的なサンプル生成プロセス内での多様性を高めている。
本稿では, 敵の多様性を高めるために, クリーン, ヒストリ, および現在の敵の例からなる敵の進化三角形からのサンプリングを提案する。
論文 参考訳(メタデータ) (2024-11-04T23:07:51Z) - AICAttack: Adversarial Image Captioning Attack with Attention-Based Optimization [13.045125782574306]
本稿では,画像上の微妙な摂動によって画像キャプションモデルを攻撃する新たな攻撃戦略であるAICAttackを提案する。
ブラックボックス攻撃シナリオ内で動作するため、我々のアルゴリズムはターゲットモデルのアーキテクチャ、パラメータ、勾配情報へのアクセスを必要としない。
複数の犠牲者モデルに対するベンチマークデータセットの広範な実験を通じて,AICAttackの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-19T08:27:23Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - DI-AA: An Interpretable White-box Attack for Fooling Deep Neural
Networks [6.704751710867746]
ディープニューラルネットワーク(DNN)に対するAE攻撃は、ブラックボックスAE攻撃よりも強力な破壊能力を持つ。
本稿では,解釈可能なWhite-box AE攻撃手法であるDI-AAを提案する。
論文 参考訳(メタデータ) (2021-10-14T12:15:58Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - PICA: A Pixel Correlation-based Attentional Black-box Adversarial Attack [37.15301296824337]
PICAと呼ばれる画素相関に基づく注目ブラックボックス対向攻撃を提案する。
PICAは、既存のブラックボックス攻撃と比較して高解像度の逆例を生成するのが効率的である。
論文 参考訳(メタデータ) (2021-01-19T09:53:52Z) - SPAA: Stealthy Projector-based Adversarial Attacks on Deep Image
Classifiers [82.19722134082645]
本稿では,ステルスプロジェクタを用いた対向攻撃を提案する。
PCNetというディープニューラルネットワークを用いて実際のプロジェクトとキャプチャ操作を推定します。
実験の結果,SPAAは高い攻撃成功率を達成し,他の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-12-10T18:14:03Z) - Perception Improvement for Free: Exploring Imperceptible Black-box
Adversarial Attacks on Image Classification [27.23874129994179]
ホワイトボックスの敵攻撃は、特に大きな画像の場合、小さな摂動を伴うニューラルネットワークを騙すことができる。
逆行性摂動を成功させることは、特にトランスファーベースのブラックボックス逆行攻撃では困難である。
本稿では,心理的知覚モデルに基づく対向画像の生成による構造認識型対向攻撃を提案する。
論文 参考訳(メタデータ) (2020-10-30T07:17:12Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Watch out! Motion is Blurring the Vision of Your Deep Neural Networks [34.51270823371404]
最先端のディープニューラルネットワーク(DNN)は、付加的なランダムなノイズ摂動を伴う敵の例に対して脆弱である。
そこで本研究では,視覚的に自然な動きを呈する対向攻撃の例を生成できる新しい対向攻撃法を提案する。
NeurIPS'17競合競合データセットに関する総合的な評価は、ABBAの有効性を示している。
論文 参考訳(メタデータ) (2020-02-10T02:33:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。