論文の概要: Towards Visual Distortion in Black-Box Attacks
- arxiv url: http://arxiv.org/abs/2007.10593v2
- Date: Wed, 20 Jan 2021 07:35:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 03:53:54.677176
- Title: Towards Visual Distortion in Black-Box Attacks
- Title(参考訳): ブラックボックス攻撃における視覚歪み
- Authors: Nannan Li and Zhenzhong Chen
- Abstract要約: ブラックボックス脅威モデルにおける敵の例は、視覚歪みを導入して原画像を傷つける。
そこで本研究では, 逆方向の雑音分布を学習することにより, 直接歪みを最小化できる新しいブラックボックス攻撃手法を提案する。
InceptionV3, ResNet50, VGG16bnでは, 最先端のブラックボックス攻撃と比較して歪みがはるかに小さく, 100%$の成功率を達成した。
- 参考スコア(独自算出の注目度): 68.61251746898323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Constructing adversarial examples in a black-box threat model injures the
original images by introducing visual distortion. In this paper, we propose a
novel black-box attack approach that can directly minimize the induced
distortion by learning the noise distribution of the adversarial example,
assuming only loss-oracle access to the black-box network. The quantified
visual distortion, which measures the perceptual distance between the
adversarial example and the original image, is introduced in our loss whilst
the gradient of the corresponding non-differentiable loss function is
approximated by sampling noise from the learned noise distribution. We validate
the effectiveness of our attack on ImageNet. Our attack results in much lower
distortion when compared to the state-of-the-art black-box attacks and achieves
$100\%$ success rate on InceptionV3, ResNet50 and VGG16bn. The code is
available at https://github.com/Alina-1997/visual-distortion-in-attack.
- Abstract(参考訳): ブラックボックス脅威モデルにおける敵の例の構築は、視覚歪みを導入して原画像を傷つける。
本稿では,ブラックボックスネットワークへのロスオラクルアクセスのみを前提として,敵の雑音分布を学習することにより,直接的歪みを最小化できる新しいブラックボックス攻撃手法を提案する。
学習した雑音分布から雑音をサンプリングすることにより、対応する非微分損失関数の勾配を近似しながら、逆例と原画像との知覚距離を測定する定量化された視覚歪みを損失に導入する。
我々はimagenetに対する攻撃の有効性を検証する。
InceptionV3, ResNet50, VGG16bnでは, 最先端のブラックボックス攻撃と比較して歪みがはるかに小さく, 成功率は100\%である。
コードはhttps://github.com/alina-1997/visual-distortion-in-attackで入手できる。
関連論文リスト
- SAIF: Sparse Adversarial and Imperceptible Attack Framework [7.025774823899217]
Sparse Adversarial and Interpretable Attack Framework (SAIF) と呼ばれる新しい攻撃手法を提案する。
具体的には、少数の画素で低次摂動を含む知覚不能な攻撃を設計し、これらのスパース攻撃を利用して分類器の脆弱性を明らかにする。
SAIFは、非常に受け入れ難い、解釈可能な敵の例を計算し、ImageNetデータセット上で最先端のスパース攻撃手法より優れている。
論文 参考訳(メタデータ) (2022-12-14T20:28:50Z) - Towards Lightweight Black-Box Attacks against Deep Neural Networks [70.9865892636123]
ブラックボックス攻撃は、いくつかのテストサンプルしか利用できない実用的な攻撃を引き起こす可能性があると我々は主張する。
いくつかのサンプルが必要なので、これらの攻撃を軽量なブラックボックス攻撃と呼ぶ。
近似誤差を軽減するために,Error TransFormer (ETF) を提案する。
論文 参考訳(メタデータ) (2022-09-29T14:43:03Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Context-Aware Image Denoising with Auto-Threshold Canny Edge Detection
to Suppress Adversarial Perturbation [0.8021197489470756]
本論文では,新しいコンテキスト認識画像デノイジングアルゴリズムを提案する。
適応画像スムージング技術とカラーリダクション技術を組み合わせて、逆画像からの摂動を除去します。
提案手法は, 敵の攻撃による敵の摂動を低減し, 深部畳み込みニューラルネットワークモデルの堅牢性を向上することを示す。
論文 参考訳(メタデータ) (2021-01-14T19:15:28Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - Yet Another Intermediate-Level Attack [31.055720988792416]
ディープニューラルネットワーク(DNN)モデルにまたがる敵のサンプルの転送可能性は、ブラックボックス攻撃のスペクトルのくぼみである。
本稿では,ベースライン逆数例のブラックボックス転送性を向上させる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-20T09:14:04Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - AdvJND: Generating Adversarial Examples with Just Noticeable Difference [3.638233924421642]
例に小さな摂動を加えると、優れたパフォーマンスモデルが工芸品の例を誤って分類する。
我々のAdvJNDアルゴリズムが生成した逆例は、元の入力に類似した分布を生成する。
論文 参考訳(メタデータ) (2020-02-01T09:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。