論文の概要: A Large-scale Multiple-objective Method for Black-box Attack against
Object Detection
- arxiv url: http://arxiv.org/abs/2209.07790v1
- Date: Fri, 16 Sep 2022 08:36:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 12:40:46.892236
- Title: A Large-scale Multiple-objective Method for Black-box Attack against
Object Detection
- Title(参考訳): オブジェクト検出に対するブラックボックス攻撃のための大規模多目的手法
- Authors: Siyuan Liang, Longkang Li, Yanbo Fan, Xiaojun Jia, Jingzhi Li, Baoyuan
Wu, and Xiaochun Cao
- Abstract要約: 我々は、真正の確率を最小化し、偽正の確率を最大化し、より多くの偽正の物体が新しい真正の有界箱を作らないようにする。
我々は、GARSDCと呼ばれるランダム・サブセット選択とディバイド・アンド・コンカーによる標準的な遺伝的アルゴリズムを拡張し、効率を大幅に改善する。
最先端攻撃法と比較して、GARSDCはmAPでは平均12.0、広範囲な実験ではクエリでは約1000倍減少する。
- 参考スコア(独自算出の注目度): 70.00150794625053
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have shown that detectors based on deep models are vulnerable
to adversarial examples, even in the black-box scenario where the attacker
cannot access the model information. Most existing attack methods aim to
minimize the true positive rate, which often shows poor attack performance, as
another sub-optimal bounding box may be detected around the attacked bounding
box to be the new true positive one. To settle this challenge, we propose to
minimize the true positive rate and maximize the false positive rate, which can
encourage more false positive objects to block the generation of new true
positive bounding boxes. It is modeled as a multi-objective optimization (MOP)
problem, of which the generic algorithm can search the Pareto-optimal. However,
our task has more than two million decision variables, leading to low searching
efficiency. Thus, we extend the standard Genetic Algorithm with Random Subset
selection and Divide-and-Conquer, called GARSDC, which significantly improves
the efficiency. Moreover, to alleviate the sensitivity to population quality in
generic algorithms, we generate a gradient-prior initial population, utilizing
the transferability between different detectors with similar backbones.
Compared with the state-of-art attack methods, GARSDC decreases by an average
12.0 in the mAP and queries by about 1000 times in extensive experiments. Our
codes can be found at https://github.com/LiangSiyuan21/ GARSDC.
- Abstract(参考訳): 近年の研究では、攻撃者がモデル情報にアクセスできないブラックボックスシナリオにおいても、ディープモデルに基づく検出器は敵の例に弱いことが示されている。
既存の攻撃方法は、攻撃されたバウンディングボックスの周囲で別のサブ最適バウンディングボックスが検出され、新しい真正のバウンディングボックスとなるため、攻撃性能の悪い真正率を最小化することを目的としている。
この課題を解決するために,偽陽性率を最小化し,偽陽性率を最大化する手法を提案する。
多目的最適化(MOP)問題としてモデル化され、汎用アルゴリズムでパレート最適化を探索できる。
しかし、我々のタスクは200万以上の決定変数を持ち、検索効率が低下する。
そこで本研究では,標準遺伝的アルゴリズムをランダムな部分集合選択とgarsdcと呼ばれる分割・探索によって拡張し,効率を大幅に向上させる。
さらに, 遺伝的アルゴリズムの集団品質に対する感度を緩和するために, 同様のバックボーンを持つ異なる検出器間の移動性を利用して, 勾配優先の初期集団を生成する。
最先端攻撃法と比較して、GARSDCはmAPでは平均12.0、広範囲な実験ではクエリでは約1000倍減少する。
私たちのコードは https://github.com/LiangSiyuan21/ GARSDC で確認できます。
関連論文リスト
- GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Boosting Adversarial Transferability via Fusing Logits of Top-1
Decomposed Feature [36.78292952798531]
本稿では,Singular Value Decomposition(SVD)に基づく特徴レベル攻撃法を提案する。
提案手法は,中間層特徴量より大きい特異値に付随する固有ベクトルがより優れた一般化と注意特性を示すという発見に着想を得たものである。
論文 参考訳(メタデータ) (2023-05-02T12:27:44Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - TEAM: We Need More Powerful Adversarial Examples for DNNs [6.7943676146532885]
敵対的な例はディープニューラルネットワーク(DNN)の誤分類につながる可能性がある
本稿では,従来の手法よりも強力な逆例を生成する新しい手法を提案する。
攻撃成功率100% (ASR) の逆例を, より小さい摂動のみで確実に生成することができる。
論文 参考訳(メタデータ) (2020-07-31T04:11:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。