論文の概要: Attacking Important Pixels for Anchor-free Detectors
- arxiv url: http://arxiv.org/abs/2301.11457v1
- Date: Thu, 26 Jan 2023 23:03:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 16:58:48.141969
- Title: Attacking Important Pixels for Anchor-free Detectors
- Title(参考訳): アンカーフリー検出器の重要画素攻撃
- Authors: Yunxu Xie, Shu Hu, Xin Wang, Quanyu Liao, Bin Zhu, Xi Wu, Siwei Lyu
- Abstract要約: 物体検出に対する既存の敵攻撃は、アンカーベース検出器の攻撃に焦点を当てている。
本研究では,アンカーフリー検出器を指向した最初の対向攻撃を提案する。
提案手法は,オブジェクト検出と人間のポーズ推定の両タスクにおいて,最先端の攻撃性能と伝達性を実現する。
- 参考スコア(独自算出の注目度): 47.524554948433995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have been demonstrated to be vulnerable to adversarial
attacks: subtle perturbation can completely change the prediction result.
Existing adversarial attacks on object detection focus on attacking
anchor-based detectors, which may not work well for anchor-free detectors. In
this paper, we propose the first adversarial attack dedicated to anchor-free
detectors. It is a category-wise attack that attacks important pixels of all
instances of a category simultaneously. Our attack manifests in two forms,
sparse category-wise attack (SCA) and dense category-wise attack (DCA), that
minimize the $L_0$ and $L_\infty$ norm-based perturbations, respectively. For
DCA, we present three variants, DCA-G, DCA-L, and DCA-S, that select a global
region, a local region, and a semantic region, respectively, to attack. Our
experiments on large-scale benchmark datasets including PascalVOC, MS-COCO, and
MS-COCO Keypoints indicate that our proposed methods achieve state-of-the-art
attack performance and transferability on both object detection and human pose
estimation tasks.
- Abstract(参考訳): 深いニューラルネットワークは敵の攻撃に弱いことが示されており、微妙な摂動は予測結果を完全に変える可能性がある。
既存の敵による物体検出攻撃は、アンカーフリー検出器ではうまく機能しないアンカーベース検出器の攻撃に重点を置いている。
本稿では,アンカーフリー検出器に特化した最初の敵攻撃を提案する。
これはカテゴリワイド攻撃であり、カテゴリの全インスタンスの重要なピクセルを同時に攻撃する。
sparse category-wise attack (sca) と dense category-wise attack (dca) の2つの形態で、それぞれ$l_0$ と $l_\infty$ のノルムベースの摂動を最小限に抑える。
DCAでは, DCA-G, DCA-L, DCA-Sの3つの変種をそれぞれ, グローバル領域, ローカル領域, セマンティック領域を選択して攻撃する。
PascalVOC, MS-COCO, MS-COCOキーポイントなどの大規模ベンチマークデータセットを用いた実験により, 提案手法は, 物体検出と人的ポーズ推定の両タスクにおいて, 最先端の攻撃性能と伝達性を達成することを示す。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - To Make Yourself Invisible with Adversarial Semantic Contours [47.755808439588094]
逆セマンティック・コンター(英: Adversarial Semantic Contour、ASC)は、物体の輪郭の前に騙されたスパース・アタックのベイズ的定式化の見積もりである。
ASCは、異なるアーキテクチャを持つ9つの近代検出器の予測を損なう可能性があることを示す。
我々は、様々なアーキテクチャを持つ物体検出器の共通弱点である輪郭について注意を払って結論付けた。
論文 参考訳(メタデータ) (2023-03-01T07:22:39Z) - Universal Detection of Backdoor Attacks via Density-based Clustering and
Centroids Analysis [24.953032059932525]
クラスタリングとセントロイド分析(CCA-UD)に基づくバックドア攻撃に対するユニバーサルディフェンスを提案する。
防御の目的は、ディープラーニングモデルがトレーニングデータセットを検査することでバックドア攻撃の対象になるかどうかを明らかにすることである。
論文 参考訳(メタデータ) (2023-01-11T16:31:38Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Transferable Adversarial Examples for Anchor Free Object Detection [44.7397139463144]
我々は、アンカーフリー物体検出器に対する最初の対向攻撃を示す。
我々は高レベルなセマンティック情報を活用し、転送可能な敵の例を効率的に生成する。
提案手法は,最先端の性能と転送性を実現する。
論文 参考訳(メタデータ) (2021-06-03T06:38:15Z) - Double Targeted Universal Adversarial Perturbations [83.60161052867534]
本稿では, インスタンス別画像依存摂動と汎用的普遍摂動のギャップを埋めるために, 二重目標普遍摂動(DT-UAP)を導入する。
提案したDTAアルゴリズムの幅広いデータセットに対する有効性を示すとともに,物理攻撃の可能性を示す。
論文 参考訳(メタデータ) (2020-10-07T09:08:51Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Category-wise Attack: Transferable Adversarial Examples for Anchor Free
Object Detection [38.813947369401525]
本研究では,アンカーフリーなオブジェクトモデルに対する敵例を生成するための効率的かつ効率的なアルゴリズムを提案する。
驚くべきことに、生成した敵の例は、標的となるアンカーフリー物体検出器を効果的に攻撃するだけでなく、他の物体検出器を攻撃するために移動させることもできる。
論文 参考訳(メタデータ) (2020-02-10T04:49:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。