論文の概要: Parallel Rectangle Flip Attack: A Query-based Black-box Attack against
Object Detection
- arxiv url: http://arxiv.org/abs/2201.08970v1
- Date: Sat, 22 Jan 2022 06:00:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 15:19:18.210318
- Title: Parallel Rectangle Flip Attack: A Query-based Black-box Attack against
Object Detection
- Title(参考訳): parallel rectangle flip attack: オブジェクト検出に対するクエリベースのブラックボックス攻撃
- Authors: Siyuan Liang, Baoyuan Wu, Yanbo Fan, Xingxing Wei, Xiaochun Cao
- Abstract要約: 本稿では,攻撃領域近傍の準最適検出を回避するために,ランダム探索による並列矩形フリップ攻撃(PRFA)を提案する。
提案手法は, アンカーベースやアンカーフリーなど, 様々な人気物体検出装置を効果的かつ効率的に攻撃し, 転送可能な対向例を生成する。
- 参考スコア(独自算出の注目度): 89.08832589750003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection has been widely used in many safety-critical tasks, such as
autonomous driving. However, its vulnerability to adversarial examples has not
been sufficiently studied, especially under the practical scenario of black-box
attacks, where the attacker can only access the query feedback of predicted
bounding-boxes and top-1 scores returned by the attacked model. Compared with
black-box attack to image classification, there are two main challenges in
black-box attack to detection. Firstly, even if one bounding-box is
successfully attacked, another sub-optimal bounding-box may be detected near
the attacked bounding-box. Secondly, there are multiple bounding-boxes, leading
to very high attack cost. To address these challenges, we propose a Parallel
Rectangle Flip Attack (PRFA) via random search. We explain the difference
between our method with other attacks in Fig.~\ref{fig1}. Specifically, we
generate perturbations in each rectangle patch to avoid sub-optimal detection
near the attacked region. Besides, utilizing the observation that adversarial
perturbations mainly locate around objects' contours and critical points under
white-box attacks, the search space of attacked rectangles is reduced to
improve the attack efficiency. Moreover, we develop a parallel mechanism of
attacking multiple rectangles simultaneously to further accelerate the attack
process. Extensive experiments demonstrate that our method can effectively and
efficiently attack various popular object detectors, including anchor-based and
anchor-free, and generate transferable adversarial examples.
- Abstract(参考訳): オブジェクト検出は、自動運転など、多くの安全クリティカルなタスクで広く使われている。
しかし、敵の例に対する脆弱性は十分に研究されていない。特にブラックボックス攻撃の実践シナリオでは、攻撃者は予測されたバウンディングボックスと攻撃モデルによって返されるトップ1スコアのクエリフィードバックにしかアクセスできない。
ブラックボックス攻撃とイメージ分類を比較すると、ブラックボックス攻撃とイメージ分類の主な課題は2つある。
まず、1つのバウンディングボックスが攻撃に成功しても、攻撃されたバウンディングボックスの近くで別のサブ最適バウンディングボックスを検出することができる。
第二に、複数のバウンディングボックスがあり、攻撃コストが非常に高い。
これらの課題に対処するために,ランダム探索による並列矩形フリップ攻撃(PRFA)を提案する。
本手法と他の攻撃方法の違いをfigで解説する。
~\ref{fig1}。
具体的には,各矩形パッチに摂動を生成し,攻撃領域近傍の準最適検出を回避する。
また, 物体の輪郭や臨界点の周囲に主眼を置き, 白箱攻撃下での対向的摂動の観測により, 攻撃長方形の探索空間が小さくなり, 攻撃効率が向上する。
さらに,複数の矩形を同時に攻撃する並列機構を開発し,攻撃プロセスをさらに加速する。
本手法は, アンカーベースやアンカーフリーを含む, 様々な人気物体検出装置を効果的かつ効率的に攻撃し, 転送可能な対向例を生成する。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - CGBA: Curvature-aware Geometric Black-box Attack [39.63633212337113]
決定に基づくブラックボックス攻撃は、敵の例を作るのに大量のクエリを必要とすることが多い。
我々は新しいクエリ効率の曲率を考慮した幾何的決定に基づくブラックボックスアタック(CGBA)を提案する。
ターゲット攻撃に適応したクエリ効率の高い新しい変種であるCGBA-Hを開発した。
論文 参考訳(メタデータ) (2023-08-06T17:18:04Z) - Ensemble-based Blackbox Attacks on Dense Prediction [16.267479602370543]
慎重に設計されたアンサンブルは、多くの犠牲者モデルに対して効果的な攻撃を発生させることができることを示す。
特に,個々のモデルに対する重み付けの正規化が,攻撃の成功に重要な役割を担っていることを示す。
提案手法は同時に複数のブラックボックス検出とセグメンテーションモデルを騙すことができる単一摂動を生成することができる。
論文 参考訳(メタデータ) (2023-03-25T00:08:03Z) - T-SEA: Transfer-based Self-Ensemble Attack on Object Detection [9.794192858806905]
複数のブラックボックス検出器に対する高信頼度対向攻撃を実現するために, 1 つのモデルのみを用いて, モノ検出に対する単一モデル転送ベースブラックボックス攻撃を提案する。
我々は、パッチ最適化を正規モデル最適化と類似させ、入力データ、攻撃モデル、および敵パッチに一連の自己アンサンブルアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-16T10:27:06Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - RayS: A Ray Searching Method for Hard-label Adversarial Attack [99.72117609513589]
我々は、レイサーチ攻撃(RayS)を提案し、これはハードラベル攻撃の有効性と効率を大幅に改善する。
モデルの正当性チェックとしても使用できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:50Z) - Spanning Attack: Reinforce Black-box Attacks with Unlabeled Data [96.92837098305898]
Black-box攻撃は、機械学習モデルのインプット・アウトプットペアをクエリすることで、敵の摂動を発生させることを目的としている。
ブラックボックス攻撃はしばしば、入力空間の高次元性のためにクエリ非効率性の問題に悩まされる。
本研究では,低次元部分空間における逆摂動を,補助的なラベルのないデータセットに分散させることで抑制するスパンニング攻撃と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-05-11T05:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。