論文の概要: Saliency Attack: Towards Imperceptible Black-box Adversarial Attack
- arxiv url: http://arxiv.org/abs/2206.01898v1
- Date: Sat, 4 Jun 2022 03:56:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 15:19:37.193815
- Title: Saliency Attack: Towards Imperceptible Black-box Adversarial Attack
- Title(参考訳): 敬礼攻撃:不可避なブラックボックス攻撃をめざして
- Authors: Zeyu Dai, Shengcai Liu, Ke Tang, Qing Li
- Abstract要約: そこで本稿では, ほとんど認識できない敵の例を生成するために, 摂動を小さな正弦領域に限定することを提案する。
我々はまた、より優れた非受容性を達成するために、サリアント地域の摂動を改善すべく、新しいブラックボックス攻撃であるサリアンシーアタックを提案する。
- 参考スコア(独自算出の注目度): 35.897117965803666
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks are vulnerable to adversarial examples, even in the
black-box setting where the attacker is only accessible to the model output.
Recent studies have devised effective black-box attacks with high query
efficiency. However, such performance is often accompanied by compromises in
attack imperceptibility, hindering the practical use of these approaches. In
this paper, we propose to restrict the perturbations to a small salient region
to generate adversarial examples that can hardly be perceived. This approach is
readily compatible with many existing black-box attacks and can significantly
improve their imperceptibility with little degradation in attack success rate.
Further, we propose the Saliency Attack, a new black-box attack aiming to
refine the perturbations in the salient region to achieve even better
imperceptibility. Extensive experiments show that compared to the
state-of-the-art black-box attacks, our approach achieves much better
imperceptibility scores, including most apparent distortion (MAD), $L_0$ and
$L_2$ distances, and also obtains significantly higher success rates judged by
a human-like threshold on MAD. Importantly, the perturbations generated by our
approach are interpretable to some extent. Finally, it is also demonstrated to
be robust to different detection-based defenses.
- Abstract(参考訳): ディープニューラルネットワークは、攻撃者がモデル出力にのみアクセス可能なブラックボックス設定であっても、敵の例に対して脆弱である。
近年,クエリ効率の高いブラックボックス攻撃が考案されている。
しかし、このようなパフォーマンスは、しばしば攻撃不能の妥協を伴うため、これらのアプローチの実践的使用を妨げる。
本稿では,この摂動を小さな極小領域に制限し,認識できない敵の例を生成することを提案する。
このアプローチは、既存のブラックボックス攻撃の多くと容易に対応でき、攻撃成功率の低下を少なくして、そのインセプティビリティを大幅に改善することができる。
さらに,本手法では,サルエント領域の摂動を洗練し,さらに優れた受動性を実現することを目的とした,新たなブラックボックス攻撃であるサルエンシー攻撃を提案する。
広汎な実験では、最先端のブラックボックス攻撃と比較して、最も顕著な歪み(MAD)、$L_0$、$L_2$距離など、はるかに優れた非受容性スコアが得られ、また、MAD上の人間のような閾値で判断される成功率も著しく向上した。
重要なことに、我々のアプローチによって生じる摂動はある程度解釈できる。
最後に、検出ベースの異なる防御に頑健であることが示される。
関連論文リスト
- STBA: Towards Evaluating the Robustness of DNNs for Query-Limited Black-box Scenario [50.37501379058119]
本研究では,クエリ制限シナリオにおいて,悪意のある逆の例を作成するために,空間変換ブラックボックス攻撃(STBA)を提案する。
そこで本研究では,STBAが対向例の認識不能性を効果的に改善し,クエリ制限条件下での攻撃成功率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-03-30T13:28:53Z) - Boosting Black-Box Adversarial Attacks with Meta Learning [0.0]
本稿では,代用モデル上でメタ対向摂動(MAP)を訓練し,モデルの勾配を推定してブラックボックス攻撃を行うハイブリッドアタック手法を提案する。
本手法は攻撃成功率を向上するだけでなく,他の手法と比較してクエリ数を減少させる。
論文 参考訳(メタデータ) (2022-03-28T09:32:48Z) - Adversarial training may be a double-edged sword [50.09831237090801]
深層ネットワークの決定境界における敵対的トレーニングの幾らかの幾何学的結果が、ある種のブラックボックス攻撃のエッジとなることを示す。
特に、敵の訓練がホワイトボックスシナリオのロバスト性を大幅に改善する効果的な方法であることを示すために、ロバストネスゲインと呼ばれる指標を定義するが、より現実的な意思決定ベースのブラックボックス攻撃に対して、そのようなロバストネスゲインを提供することはできない。
論文 参考訳(メタデータ) (2021-07-24T19:09:16Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - Perception Improvement for Free: Exploring Imperceptible Black-box
Adversarial Attacks on Image Classification [27.23874129994179]
ホワイトボックスの敵攻撃は、特に大きな画像の場合、小さな摂動を伴うニューラルネットワークを騙すことができる。
逆行性摂動を成功させることは、特にトランスファーベースのブラックボックス逆行攻撃では困難である。
本稿では,心理的知覚モデルに基づく対向画像の生成による構造認識型対向攻撃を提案する。
論文 参考訳(メタデータ) (2020-10-30T07:17:12Z) - AdvMind: Inferring Adversary Intent of Black-Box Attacks [66.19339307119232]
本稿では,ブラックボックス攻撃の敵意を頑健に推定する新たな評価モデルであるAdvMindを提案する。
平均的なAdvMindは、3回未満のクエリバッチを観察した後、75%以上の精度で敵の意図を検出する。
論文 参考訳(メタデータ) (2020-06-16T22:04:31Z) - Towards Query-Efficient Black-Box Adversary with Zeroth-Order Natural
Gradient Descent [92.4348499398224]
ブラックボックスの敵攻撃手法は、実用性や単純さから特に注目されている。
敵攻撃を設計するためのゼロ階自然勾配降下法(ZO-NGD)を提案する。
ZO-NGDは、最先端攻撃法と比較して、モデルクエリの複雑さが大幅に低い。
論文 参考訳(メタデータ) (2020-02-18T21:48:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。