論文の概要: Optimizing One-pixel Black-box Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2205.02116v1
- Date: Sat, 30 Apr 2022 12:42:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 08:36:06.544533
- Title: Optimizing One-pixel Black-box Adversarial Attacks
- Title(参考訳): 1ピクセルブラックボックス攻撃の最適化
- Authors: Tianxun Zhou and Shubhankar Agrawal and Prateek Manocha
- Abstract要約: 深層ニューラルネットワーク(DNN)の出力は、ブラックボックス設定での入力の小さな摂動によって変更することができる。
この研究は、攻撃中のネットワークへの呼び出し回数を減らすために、1ピクセル(2ピクセル)のブラックボックス攻撃を改善することを目指している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The output of Deep Neural Networks (DNN) can be altered by a small
perturbation of the input in a black box setting by making multiple calls to
the DNN. However, the high computation and time required makes the existing
approaches unusable. This work seeks to improve the One-pixel (few-pixel)
black-box adversarial attacks to reduce the number of calls to the network
under attack. The One-pixel attack uses a non-gradient optimization algorithm
to find pixel-level perturbations under the constraint of a fixed number of
pixels, which causes the network to predict the wrong label for a given image.
We show through experimental results how the choice of the optimization
algorithm and initial positions to search can reduce function calls and
increase attack success significantly, making the attack more practical in
real-world settings.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の出力は、DNNに複数の呼び出しをすることで、ブラックボックス設定での入力の小さな摂動によって変更することができる。
しかし、高い計算と時間を必要とするため、既存のアプローチは使用できない。
この研究は、攻撃中のネットワークへの呼び出し数を減らすために、1ピクセル (few-pixel) のブラックボックスの対向攻撃を改善することを目指している。
ワンピクセル攻撃は、非階調最適化アルゴリズムを用いて、固定数のピクセルの制約の下でピクセルレベルの摂動を見つけることで、ネットワークが与えられた画像の間違ったラベルを予測する。
実験結果から,最適化アルゴリズムの選択と初期位置の探索が機能呼び出しを減らし,攻撃成功率を大幅に向上させる可能性を示し,実際の環境での攻撃をより実用的なものにする。
関連論文リスト
- SAIF: Sparse Adversarial and Imperceptible Attack Framework [7.025774823899217]
Sparse Adversarial and Interpretable Attack Framework (SAIF) と呼ばれる新しい攻撃手法を提案する。
具体的には、少数の画素で低次摂動を含む知覚不能な攻撃を設計し、これらのスパース攻撃を利用して分類器の脆弱性を明らかにする。
SAIFは、非常に受け入れ難い、解釈可能な敵の例を計算し、ImageNetデータセット上で最先端のスパース攻撃手法より優れている。
論文 参考訳(メタデータ) (2022-12-14T20:28:50Z) - AutoAdversary: A Pixel Pruning Method for Sparse Adversarial Attack [8.926478245654703]
逆数例の特別な枝、すなわちスパース対数例は、数ピクセルだけを摂動することでターゲットのDNNを騙すことができる。
そこで本稿では,AutoAdversaryという新たな対向攻撃手法を提案する。
提案手法がいくつかの最先端手法よりも優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2022-03-18T06:06:06Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - PICA: A Pixel Correlation-based Attentional Black-box Adversarial Attack [37.15301296824337]
PICAと呼ばれる画素相関に基づく注目ブラックボックス対向攻撃を提案する。
PICAは、既存のブラックボックス攻撃と比較して高解像度の逆例を生成するのが効率的である。
論文 参考訳(メタデータ) (2021-01-19T09:53:52Z) - GreedyFool: Distortion-Aware Sparse Adversarial Attack [138.55076781355206]
現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプルは、数ピクセルだけを摂動させることでターゲットモデルを騙すことができる。
GreedyFoolと呼ばれる2段階の歪みを考慮したグリーディ法を提案する。
論文 参考訳(メタデータ) (2020-10-26T17:59:07Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - Projection & Probability-Driven Black-Box Attack [205.9923346080908]
既存のブラックボックス攻撃は、高次元空間における過剰なクエリを必要とする。
本稿では,この問題を解決するために,プロジェクション&確率駆動型ブラックボックス攻撃(PPBA)を提案する。
我々の手法は、最先端の手法に比べて攻撃成功率の高いクエリを少なくとも24%削減する必要がある。
論文 参考訳(メタデータ) (2020-05-08T03:37:50Z) - A Black-box Adversarial Attack Strategy with Adjustable Sparsity and
Generalizability for Deep Image Classifiers [16.951363298896638]
ブラックボックスの逆転摂動は現実世界のアプリケーションにとってより実用的である。
本稿では,有効普遍画素制限摂動を構成するためのDceitアルゴリズムを提案する。
Deceitを用いた画像の摂動は,約10%の画素しか持たないことが判明した。
論文 参考訳(メタデータ) (2020-04-24T19:42:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。