論文の概要: PICA: A Pixel Correlation-based Attentional Black-box Adversarial Attack
- arxiv url: http://arxiv.org/abs/2101.07538v1
- Date: Tue, 19 Jan 2021 09:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 11:20:35.358400
- Title: PICA: A Pixel Correlation-based Attentional Black-box Adversarial Attack
- Title(参考訳): PICA: 画素相関に基づく意図的ブラックボックス攻撃
- Authors: Jie Wang, Zhaoxia Yin, Jin Tang, Jing Jiang, and Bin Luo
- Abstract要約: PICAと呼ばれる画素相関に基づく注目ブラックボックス対向攻撃を提案する。
PICAは、既存のブラックボックス攻撃と比較して高解像度の逆例を生成するのが効率的である。
- 参考スコア(独自算出の注目度): 37.15301296824337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The studies on black-box adversarial attacks have become increasingly
prevalent due to the intractable acquisition of the structural knowledge of
deep neural networks (DNNs). However, the performance of emerging attacks is
negatively impacted when fooling DNNs tailored for high-resolution images. One
of the explanations is that these methods usually focus on attacking the entire
image, regardless of its spatial semantic information, and thereby encounter
the notorious curse of dimensionality. To this end, we propose a pixel
correlation-based attentional black-box adversarial attack, termed as PICA.
Firstly, we take only one of every two neighboring pixels in the salient region
as the target by leveraging the attentional mechanism and pixel correlation of
images, such that the dimension of the black-box attack reduces. After that, a
general multiobjective evolutionary algorithm is employed to traverse the
reduced pixels and generate perturbations that are imperceptible by the human
vision. Extensive experimental results have verified the effectiveness of the
proposed PICA on the ImageNet dataset. More importantly, PICA is
computationally more efficient to generate high-resolution adversarial examples
compared with the existing black-box attacks.
- Abstract(参考訳): 深層ニューラルネットワーク(DNN)の構造的知識の習得が困難なため、ブラックボックスの敵対的攻撃の研究がますます広まっている。
しかし、高解像度画像に適したDNNを騙すと、新興攻撃の性能に悪影響を及ぼす。
説明の1つは、これらの方法が通常、空間的な意味情報に関係なく、画像全体を攻撃することに集中し、悪名高い次元の呪いに遭遇することである。
そこで本研究では,PICA(Pixel correlation-based attentional black-box adversarial attack)を提案する。
まず、黒箱攻撃の寸法が減少するような画像の注意機構と画素相関を利用して、正当領域の隣接する2つのピクセルのうち1つだけを目標とする。
その後、一般的な多目的進化アルゴリズムを用いて、縮小したピクセルを横切り、人間の視覚によって知覚できない摂動を生成する。
広範な実験結果から,imagenetデータセットにおけるpicaの有効性が検証された。
さらに重要なことは、PICAは既存のブラックボックス攻撃と比較して高解像度の逆例を生成するのに計算効率が良いことである。
関連論文リスト
- Optimizing One-pixel Black-box Adversarial Attacks [0.0]
深層ニューラルネットワーク(DNN)の出力は、ブラックボックス設定での入力の小さな摂動によって変更することができる。
この研究は、攻撃中のネットワークへの呼び出し回数を減らすために、1ピクセル(2ピクセル)のブラックボックス攻撃を改善することを目指している。
論文 参考訳(メタデータ) (2022-04-30T12:42:14Z) - Cross-Modal Transferable Adversarial Attacks from Images to Videos [82.0745476838865]
近年の研究では、一方のホワイトボックスモデルで手作りされた敵の例は、他のブラックボックスモデルを攻撃するために使用できることが示されている。
本稿では,イメージ・トゥ・ビデオ(I2V)攻撃と呼ばれる,シンプルだが効果的なクロスモーダル・アタック手法を提案する。
I2Vは、事前訓練された画像モデルの特徴と良質な例とのコサイン類似性を最小化して、対向フレームを生成する。
論文 参考訳(メタデータ) (2021-12-10T08:19:03Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Geometrically Adaptive Dictionary Attack on Face Recognition [23.712389625037442]
顔認証に対するクエリ効率の良いブラックボックス攻撃のための戦略を提案する。
中心となるアイデアは、UVテクスチャマップに逆方向の摂動を作り、それを画像の顔に投影することです。
LFWデータセットとCPLFWデータセットの実験において、圧倒的な性能改善を示す。
論文 参考訳(メタデータ) (2021-11-08T10:26:28Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Chromatic and spatial analysis of one-pixel attacks against an image
classifier [0.0]
本研究では,1ピクセル攻撃の色分布と空間分布を解析する方法を提案する。
より効果的な攻撃ではピクセルの色が変化し,画像の中心に攻撃が配置されることが示される。
論文 参考訳(メタデータ) (2021-05-28T12:21:58Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Attention-Guided Black-box Adversarial Attacks with Large-Scale
Multiobjective Evolutionary Optimization [16.096277139911013]
大規模多目的進化最適化に基づく注意誘導型ブラックボックス対向攻撃を提案する。
画像の空間的な意味情報を考慮することにより、まず注意マップを利用して、乱れたピクセルを決定します。
画像全体を攻撃する代わりに、注意メカニズムで乱れたピクセルを減らすことは、寸法の悪名高い呪いを避けるのに役立ちます。
論文 参考訳(メタデータ) (2021-01-19T08:48:44Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - Blurring Fools the Network -- Adversarial Attacks by Feature Peak
Suppression and Gaussian Blurring [7.540176446791261]
本論文では,データの特徴におけるピーク要素の値を抑制することにより,ピーク抑制(PS)という逆攻撃デモを提案する。
実験結果は、PSとよく設計されたガウスボケは、よく訓練されたターゲットネットワークの分類結果を完全に変更する敵対攻撃を形成することができることを示しています。
論文 参考訳(メタデータ) (2020-12-21T15:47:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。