論文の概要: A Black-box Adversarial Attack Strategy with Adjustable Sparsity and
Generalizability for Deep Image Classifiers
- arxiv url: http://arxiv.org/abs/2004.13002v3
- Date: Thu, 9 Sep 2021 10:36:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 03:17:12.700191
- Title: A Black-box Adversarial Attack Strategy with Adjustable Sparsity and
Generalizability for Deep Image Classifiers
- Title(参考訳): 画像分類器の調整可能な間隔と一般化性を有するブラックボックス逆攻撃戦略
- Authors: Arka Ghosh, Sankha Subhra Mullick, Shounak Datta, Swagatam Das,
Rammohan Mallipeddi, Asit Kr. Das
- Abstract要約: ブラックボックスの逆転摂動は現実世界のアプリケーションにとってより実用的である。
本稿では,有効普遍画素制限摂動を構成するためのDceitアルゴリズムを提案する。
Deceitを用いた画像の摂動は,約10%の画素しか持たないことが判明した。
- 参考スコア(独自算出の注目度): 16.951363298896638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Constructing adversarial perturbations for deep neural networks is an
important direction of research. Crafting image-dependent adversarial
perturbations using white-box feedback has hitherto been the norm for such
adversarial attacks. However, black-box attacks are much more practical for
real-world applications. Universal perturbations applicable across multiple
images are gaining popularity due to their innate generalizability. There have
also been efforts to restrict the perturbations to a few pixels in the image.
This helps to retain visual similarity with the original images making such
attacks hard to detect. This paper marks an important step which combines all
these directions of research. We propose the DEceit algorithm for constructing
effective universal pixel-restricted perturbations using only black-box
feedback from the target network. We conduct empirical investigations using the
ImageNet validation set on the state-of-the-art deep neural classifiers by
varying the number of pixels to be perturbed from a meagre 10 pixels to as high
as all pixels in the image. We find that perturbing only about 10% of the
pixels in an image using DEceit achieves a commendable and highly transferable
Fooling Rate while retaining the visual quality. We further demonstrate that
DEceit can be successfully applied to image dependent attacks as well. In both
sets of experiments, we outperformed several state-of-the-art methods.
- Abstract(参考訳): ディープニューラルネットワークの対向摂動を構成することは研究の重要な方向である。
ホワイトボックスフィードバックを用いた画像依存の敵対的摂動は、そのような敵対的攻撃の規範となっている。
しかし、実際のアプリケーションではブラックボックス攻撃の方がずっと実用的です。
複数の画像に適用可能な普遍的摂動は、その自然の一般化可能性によって人気を集めている。
また、画像内の数ピクセルに摂動を制限する努力も行われている。
これにより、このような攻撃を検出しにくくする元のイメージと視覚的類似性を維持することができる。
本稿は、これらの研究の方向性を組み合わせる重要なステップを示す。
本稿では,対象ネットワークからのブラックボックスフィードバックのみを用いて,効果的な万能画素制限摂動を構築するためのdeceitアルゴリズムを提案する。
我々は,最先端の深部神経分類器に設定されたImageNet検証を用いて,計測10ピクセルから画像中のすべてのピクセルに摂動する画素数を変化させることにより,実験的検討を行った。
Deceitを用いた画像中の約10%の画素の摂動は、視覚的品質を保ちながら、可読かつ高度に転送可能な摂食率を達成する。
さらに、画像依存攻撃にもDeceitがうまく適用可能であることを実証する。
どちらの実験も最先端の手法を上回っていた。
関連論文リスト
- Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Adversarial examples by perturbing high-level features in intermediate
decoder layers [0.0]
画素を摂動する代わりに、入力画像のエンコーダ-デコーダ表現とデコーダの中間層を摂動する。
我々の摂動は、より長いくちばしや緑のくちばしのような意味的な意味を持っている。
本手法は,敵の攻撃に対して,敵の訓練に基づく防御技術が脆弱であることを示す。
論文 参考訳(メタデータ) (2021-10-14T07:08:15Z) - Analyzing Adversarial Robustness of Deep Neural Networks in Pixel Space:
a Semantic Perspective [23.69696449352784]
敵の例は、入力を知覚不能な摂動で修正し、ネットワークが誤った出力を生成することを誤解することによって悪質に作成される。
画像レベルでは,画像分類器の対角的ロバスト性について検討し,画像中の画素情報をすべて無差別に利用する。
本研究では,分割画像の異なる領域の画素による摂動画素の探索を行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-18T02:16:01Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Imperceptible Adversarial Examples for Fake Image Detection [46.72602615209758]
本稿では,鍵画素を偽画像検出器に判定し,鍵画素のみを攻撃することにより,偽画像検出を妨害する手法を提案する。
3つの偽画像検出器を用いた2つの公開データセット実験により,提案手法は,ホワイトボックス攻撃とブラックボックス攻撃の両方において最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2021-06-03T06:25:04Z) - QAIR: Practical Query-efficient Black-Box Attacks for Image Retrieval [56.51916317628536]
画像検索に対するクエリベースの攻撃について検討し,ブラックボックス設定下での対比例に対する堅牢性を評価する。
新たな関連性に基づく損失は、攻撃前後のトップk検索結果のセット類似度を測定して攻撃効果を定量化するように設計されている。
提案手法は,ブラックボックス設定による画像検索システムに対するクエリ数が少なく,高い攻撃成功率を達成できることを示す実験である。
論文 参考訳(メタデータ) (2021-03-04T10:18:43Z) - PICA: A Pixel Correlation-based Attentional Black-box Adversarial Attack [37.15301296824337]
PICAと呼ばれる画素相関に基づく注目ブラックボックス対向攻撃を提案する。
PICAは、既存のブラックボックス攻撃と比較して高解像度の逆例を生成するのが効率的である。
論文 参考訳(メタデータ) (2021-01-19T09:53:52Z) - Adversarial Robustness Across Representation Spaces [35.58913661509278]
逆サロバスト性は、テスト時の知覚できない摂動に対するディープニューラルネットワークの感受性に対応している。
本研究では、複数の自然表現空間に適用された摂動に同時に頑健にできるディープニューラルネットワークのトレーニング問題を考察するために、設定を拡張した。
論文 参考訳(メタデータ) (2020-12-01T19:55:58Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。