論文の概要: NumbOD: A Spatial-Frequency Fusion Attack Against Object Detectors
- arxiv url: http://arxiv.org/abs/2412.16955v1
- Date: Sun, 22 Dec 2024 10:16:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:58:16.469708
- Title: NumbOD: A Spatial-Frequency Fusion Attack Against Object Detectors
- Title(参考訳): NumbOD:オブジェクト検出器に対する空間周波数融合攻撃
- Authors: Ziqi Zhou, Bowen Li, Yufei Song, Zhifei Yu, Shengshan Hu, Wei Wan, Leo Yu Zhang, Dezhong Yao, Hai Jin,
- Abstract要約: 我々は様々な物体検出器(OD)に対する空間周波数核融合攻撃であるNummbODを提案する。
まず、ターゲットとするOD出力から高品質なバウンディングボックスを選択するために、デュアルトラック攻撃目標選択戦略を設計する。
我々は,予測ボックスのシフトと圧縮に指向性摂動を用い,分類結果を騙すために変更する。
- 参考スコア(独自算出の注目度): 30.532420461413487
- License:
- Abstract: With the advancement of deep learning, object detectors (ODs) with various architectures have achieved significant success in complex scenarios like autonomous driving. Previous adversarial attacks against ODs have been focused on designing customized attacks targeting their specific structures (e.g., NMS and RPN), yielding some results but simultaneously constraining their scalability. Moreover, most efforts against ODs stem from image-level attacks originally designed for classification tasks, resulting in redundant computations and disturbances in object-irrelevant areas (e.g., background). Consequently, how to design a model-agnostic efficient attack to comprehensively evaluate the vulnerabilities of ODs remains challenging and unresolved. In this paper, we propose NumbOD, a brand-new spatial-frequency fusion attack against various ODs, aimed at disrupting object detection within images. We directly leverage the features output by the OD without relying on its internal structures to craft adversarial examples. Specifically, we first design a dual-track attack target selection strategy to select high-quality bounding boxes from OD outputs for targeting. Subsequently, we employ directional perturbations to shift and compress predicted boxes and change classification results to deceive ODs. Additionally, we focus on manipulating the high-frequency components of images to confuse ODs' attention on critical objects, thereby enhancing the attack efficiency. Our extensive experiments on nine ODs and two datasets show that NumbOD achieves powerful attack performance and high stealthiness.
- Abstract(参考訳): ディープラーニングの進歩により、様々なアーキテクチャを持つオブジェクト検出器(OD)は、自律運転のような複雑なシナリオで大きな成功を収めた。
ODに対する以前の敵対攻撃は、特定の構造(例えば、NMS、RPN)をターゲットにしたカスタマイズされた攻撃を設計することに集中しており、いくつかの結果を得るが、同時にスケーラビリティを制限している。
さらに、ODに対するほとんどの取り組みは、もともと分類タスク用に設計された画像レベルの攻撃によるもので、結果としてオブジェクト非関連領域(例えば、背景)の冗長な計算と乱れが生じる。
その結果、ODの脆弱性を包括的に評価するために、モデルに依存しない効率的な攻撃を設計する方法は、依然として困難で未解決のままである。
本稿では,画像中の物体検出を妨害することを目的とした,新しい空間周波数融合攻撃であるNummbODを提案する。
我々は、ODが出力する機能を内部構造に頼ることなく直接活用し、敵の例を作成する。
具体的には、まず、ターゲットとするOD出力から高品質なバウンディングボックスを選択するために、デュアルトラック攻撃ターゲット選択戦略を設計する。
その後,予測ボックスのシフトと圧縮に指向性摂動を用い,分類結果を変化させてODを騙す。
さらに、画像の高周波成分を操作することに集中して、ODの注意を重要物に混乱させ、攻撃効率を高める。
9つのODと2つのデータセットに関する大規模な実験は、NummbODが強力な攻撃性能と高いステルスネスを達成することを示す。
関連論文リスト
- Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - Towards Generic and Controllable Attacks Against Object Detection [35.12702394150046]
既存のObject Detector(OD)に対する敵攻撃には、2つの固有の制限がある。
我々は、制御可能な摂動を持つメインストリームの物体検出器に対して、汎用的なホワイトボックス攻撃(LGP)を提案する。
実験的に提案されたLGPは、MS-COCOおよびDOTAデータセット上の16の最先端物体検出器を攻撃した。
論文 参考訳(メタデータ) (2023-07-23T14:37:13Z) - LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - General Adversarial Defense Against Black-box Attacks via Pixel Level
and Feature Level Distribution Alignments [75.58342268895564]
我々は,DGN(Deep Generative Networks)と新たなトレーニング機構を併用して,分散ギャップを解消する。
トレーニングされたDGNは、画素値の変換により、敵サンプルとターゲットDNNのクリーンな分布を整列する。
我々の戦略はブラックボックス攻撃に対するその独特な効果と汎用性を実証している。
論文 参考訳(メタデータ) (2022-12-11T01:51:31Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Selective and Features based Adversarial Example Detection [12.443388374869745]
Deep Neural Networks (DNN) を中継するセキュリティに敏感なアプリケーションは、Adversarial Examples (AE) を生成するために作られた小さな摂動に弱い。
本稿では,マルチタスク学習環境における選択的予測,モデルレイヤの出力処理,知識伝達概念を用いた教師なし検出機構を提案する。
実験の結果,提案手法は,ホワイトボックスシナリオにおけるテスト攻撃に対する最先端手法と同等の結果を得られ,ブラックボックスとグレーボックスシナリオの精度が向上した。
論文 参考訳(メタデータ) (2021-03-09T11:06:15Z) - Double Targeted Universal Adversarial Perturbations [83.60161052867534]
本稿では, インスタンス別画像依存摂動と汎用的普遍摂動のギャップを埋めるために, 二重目標普遍摂動(DT-UAP)を導入する。
提案したDTAアルゴリズムの幅広いデータセットに対する有効性を示すとともに,物理攻撃の可能性を示す。
論文 参考訳(メタデータ) (2020-10-07T09:08:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。