論文の概要: Object-fabrication Targeted Attack for Object Detection
- arxiv url: http://arxiv.org/abs/2212.06431v2
- Date: Wed, 14 Dec 2022 07:33:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 11:58:10.523341
- Title: Object-fabrication Targeted Attack for Object Detection
- Title(参考訳): 物体検出のためのオブジェクトファブリケーションターゲット攻撃
- Authors: Xuchong Zhang, Changfeng Sun, Haoliang Han, Hang Wang, Hongbin Sun and
Nanning Zheng
- Abstract要約: 物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
- 参考スコア(独自算出の注目度): 54.10697546734503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent researches show that the deep learning based object detection is
vulnerable to adversarial examples. Generally, the adversarial attack for
object detection contains targeted attack and untargeted attack. According to
our detailed investigations, the research on the former is relatively fewer
than the latter and all the existing methods for the targeted attack follow the
same mode, i.e., the object-mislabeling mode that misleads detectors to
mislabel the detected object as a specific wrong label. However, this mode has
limited attack success rate, universal and generalization performances. In this
paper, we propose a new object-fabrication targeted attack mode which can
mislead detectors to `fabricate' extra false objects with specific target
labels. Furthermore, we design a dual attention based targeted feature space
attack method to implement the proposed targeted attack mode. The attack
performances of the proposed mode and method are evaluated on MS COCO and
BDD100K datasets using FasterRCNN and YOLOv5. Evaluation results demonstrate
that, the proposed object-fabrication targeted attack mode and the
corresponding targeted feature space attack method show significant
improvements in terms of image-specific attack, universal performance and
generalization capability, compared with the previous targeted attack for
object detection. Code will be made available.
- Abstract(参考訳): 近年の研究では、ディープラーニングに基づく物体検出は敵の例に弱いことが示されている。
一般的に、対象検出に対する敵攻撃は、標的攻撃と未目標攻撃を含む。
我々の詳細な調査によると、前者に対する研究は後者よりも比較的少なく、標的攻撃のための既存の手法はすべて同じモード、すなわち検出対象を特定の間違ったラベルとして誤ってラベル付けするために検出器を誤解するオブジェクトミスラベルモードに従う。
しかし、このモードは攻撃成功率、普遍的および一般化性能に制限がある。
本稿では,対象ラベルを指定した追加の偽物を「ファブリケート」するために,検出器を誤認できる新たな対象ファブリケーションターゲット攻撃モードを提案する。
さらに,提案した攻撃モードを実装するために,二重注意に基づく特徴空間攻撃法を設計する。
提案モードと手法の攻撃性能を,FasterRCNNとYOLOv5を用いてMS COCOとBDD100Kデータセットで評価した。
評価結果から,提案した対象ファブリケーション目標攻撃モードとそれに対応する特徴空間攻撃手法は,対象検出に対する従来の目標攻撃と比較して,画像特異的攻撃,普遍的性能,一般化能力の面で著しく改善されていることが示された。
コードは利用可能になる。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - LESSON: Multi-Label Adversarial False Data Injection Attack for Deep Learning Locational Detection [15.491101949025651]
本稿では,Multi-labEl adverSarial falSe data injectiON attack (LESSON) と呼ばれる汎用マルチラベル逆攻撃フレームワークを提案する。
提案手法に基づく4つの典型的なLESSON攻撃と2次元の攻撃目標について検討した。
論文 参考訳(メタデータ) (2024-01-29T09:44:59Z) - Ensemble-based Blackbox Attacks on Dense Prediction [16.267479602370543]
慎重に設計されたアンサンブルは、多くの犠牲者モデルに対して効果的な攻撃を発生させることができることを示す。
特に,個々のモデルに対する重み付けの正規化が,攻撃の成功に重要な役割を担っていることを示す。
提案手法は同時に複数のブラックボックス検出とセグメンテーションモデルを騙すことができる単一摂動を生成することができる。
論文 参考訳(メタデータ) (2023-03-25T00:08:03Z) - GLOW: Global Layout Aware Attacks for Object Detection [27.46902978168904]
敵攻撃は、予測器が誤った結果を出力するような摂動画像を狙う。
本稿では,グローバルなレイアウト認識型敵攻撃を発生させることにより,様々な攻撃要求に対処するアプローチを提案する。
実験では,複数種類の攻撃要求を設計し,MS検証セット上でのアイデアの検証を行う。
論文 参考訳(メタデータ) (2023-02-27T22:01:34Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Transferable Adversarial Examples for Anchor Free Object Detection [44.7397139463144]
我々は、アンカーフリー物体検出器に対する最初の対向攻撃を示す。
我々は高レベルなセマンティック情報を活用し、転送可能な敵の例を効率的に生成する。
提案手法は,最先端の性能と転送性を実現する。
論文 参考訳(メタデータ) (2021-06-03T06:38:15Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - Category-wise Attack: Transferable Adversarial Examples for Anchor Free
Object Detection [38.813947369401525]
本研究では,アンカーフリーなオブジェクトモデルに対する敵例を生成するための効率的かつ効率的なアルゴリズムを提案する。
驚くべきことに、生成した敵の例は、標的となるアンカーフリー物体検出器を効果的に攻撃するだけでなく、他の物体検出器を攻撃するために移動させることもできる。
論文 参考訳(メタデータ) (2020-02-10T04:49:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。