論文の概要: PICA: A Pixel Correlation-based Attentional Black-box Adversarial Attack
- arxiv url: http://arxiv.org/abs/2101.07538v1
- Date: Tue, 19 Jan 2021 09:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 11:20:35.358400
- Title: PICA: A Pixel Correlation-based Attentional Black-box Adversarial Attack
- Title(参考訳): PICA: 画素相関に基づく意図的ブラックボックス攻撃
- Authors: Jie Wang, Zhaoxia Yin, Jin Tang, Jing Jiang, and Bin Luo
- Abstract要約: PICAと呼ばれる画素相関に基づく注目ブラックボックス対向攻撃を提案する。
PICAは、既存のブラックボックス攻撃と比較して高解像度の逆例を生成するのが効率的である。
- 参考スコア(独自算出の注目度): 37.15301296824337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The studies on black-box adversarial attacks have become increasingly
prevalent due to the intractable acquisition of the structural knowledge of
deep neural networks (DNNs). However, the performance of emerging attacks is
negatively impacted when fooling DNNs tailored for high-resolution images. One
of the explanations is that these methods usually focus on attacking the entire
image, regardless of its spatial semantic information, and thereby encounter
the notorious curse of dimensionality. To this end, we propose a pixel
correlation-based attentional black-box adversarial attack, termed as PICA.
Firstly, we take only one of every two neighboring pixels in the salient region
as the target by leveraging the attentional mechanism and pixel correlation of
images, such that the dimension of the black-box attack reduces. After that, a
general multiobjective evolutionary algorithm is employed to traverse the
reduced pixels and generate perturbations that are imperceptible by the human
vision. Extensive experimental results have verified the effectiveness of the
proposed PICA on the ImageNet dataset. More importantly, PICA is
computationally more efficient to generate high-resolution adversarial examples
compared with the existing black-box attacks.
- Abstract(参考訳): 深層ニューラルネットワーク(DNN)の構造的知識の習得が困難なため、ブラックボックスの敵対的攻撃の研究がますます広まっている。
しかし、高解像度画像に適したDNNを騙すと、新興攻撃の性能に悪影響を及ぼす。
説明の1つは、これらの方法が通常、空間的な意味情報に関係なく、画像全体を攻撃することに集中し、悪名高い次元の呪いに遭遇することである。
そこで本研究では,PICA(Pixel correlation-based attentional black-box adversarial attack)を提案する。
まず、黒箱攻撃の寸法が減少するような画像の注意機構と画素相関を利用して、正当領域の隣接する2つのピクセルのうち1つだけを目標とする。
その後、一般的な多目的進化アルゴリズムを用いて、縮小したピクセルを横切り、人間の視覚によって知覚できない摂動を生成する。
広範な実験結果から,imagenetデータセットにおけるpicaの有効性が検証された。
さらに重要なことは、PICAは既存のブラックボックス攻撃と比較して高解像度の逆例を生成するのに計算効率が良いことである。
関連論文リスト
- AICAttack: Adversarial Image Captioning Attack with Attention-Based Optimization [13.045125782574306]
本稿では,画像上の微妙な摂動によって画像キャプションモデルを攻撃する新たな攻撃戦略であるAICAttackを提案する。
ブラックボックス攻撃シナリオ内で動作するため、我々のアルゴリズムはターゲットモデルのアーキテクチャ、パラメータ、勾配情報へのアクセスを必要としない。
複数の犠牲者モデルに対するベンチマークデータセットの広範な実験を通じて,AICAttackの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-19T08:27:23Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - General Adversarial Defense Against Black-box Attacks via Pixel Level
and Feature Level Distribution Alignments [75.58342268895564]
我々は,DGN(Deep Generative Networks)と新たなトレーニング機構を併用して,分散ギャップを解消する。
トレーニングされたDGNは、画素値の変換により、敵サンプルとターゲットDNNのクリーンな分布を整列する。
我々の戦略はブラックボックス攻撃に対するその独特な効果と汎用性を実証している。
論文 参考訳(メタデータ) (2022-12-11T01:51:31Z) - Attention-Guided Black-box Adversarial Attacks with Large-Scale
Multiobjective Evolutionary Optimization [16.096277139911013]
大規模多目的進化最適化に基づく注意誘導型ブラックボックス対向攻撃を提案する。
画像の空間的な意味情報を考慮することにより、まず注意マップを利用して、乱れたピクセルを決定します。
画像全体を攻撃する代わりに、注意メカニズムで乱れたピクセルを減らすことは、寸法の悪名高い呪いを避けるのに役立ちます。
論文 参考訳(メタデータ) (2021-01-19T08:48:44Z) - Perception Improvement for Free: Exploring Imperceptible Black-box
Adversarial Attacks on Image Classification [27.23874129994179]
ホワイトボックスの敵攻撃は、特に大きな画像の場合、小さな摂動を伴うニューラルネットワークを騙すことができる。
逆行性摂動を成功させることは、特にトランスファーベースのブラックボックス逆行攻撃では困難である。
本稿では,心理的知覚モデルに基づく対向画像の生成による構造認識型対向攻撃を提案する。
論文 参考訳(メタデータ) (2020-10-30T07:17:12Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - A Black-box Adversarial Attack Strategy with Adjustable Sparsity and
Generalizability for Deep Image Classifiers [16.951363298896638]
ブラックボックスの逆転摂動は現実世界のアプリケーションにとってより実用的である。
本稿では,有効普遍画素制限摂動を構成するためのDceitアルゴリズムを提案する。
Deceitを用いた画像の摂動は,約10%の画素しか持たないことが判明した。
論文 参考訳(メタデータ) (2020-04-24T19:42:00Z) - Watch out! Motion is Blurring the Vision of Your Deep Neural Networks [34.51270823371404]
最先端のディープニューラルネットワーク(DNN)は、付加的なランダムなノイズ摂動を伴う敵の例に対して脆弱である。
そこで本研究では,視覚的に自然な動きを呈する対向攻撃の例を生成できる新しい対向攻撃法を提案する。
NeurIPS'17競合競合データセットに関する総合的な評価は、ABBAの有効性を示している。
論文 参考訳(メタデータ) (2020-02-10T02:33:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。