論文の概要: I Don't Know You, But I Can Catch You: Real-Time Defense against Diverse Adversarial Patches for Object Detectors
- arxiv url: http://arxiv.org/abs/2406.10285v2
- Date: Tue, 25 Jun 2024 02:11:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 19:29:42.770621
- Title: I Don't Know You, But I Can Catch You: Real-Time Defense against Diverse Adversarial Patches for Object Detectors
- Title(参考訳): あなたを知らないけど、あなたをキャッチできる:オブジェクト検出器の対外敵パッチに対するリアルタイム防御
- Authors: Zijin Lin, Yue Zhao, Kai Chen, Jinwen He,
- Abstract要約: 我々は,高い一般化,堅牢性,効率性を備えた,敵パッチ検出の革新的なモデルである textitNutNet を提案する。
本手法は, HA と AA の既存手法よりも 2.4 倍, 4.7 倍高い平均防御性能を示す。
- 参考スコア(独自算出の注目度): 12.790316371521477
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks (DNNs) have revolutionized the field of computer vision like object detection with their unparalleled performance. However, existing research has shown that DNNs are vulnerable to adversarial attacks. In the physical world, an adversary could exploit adversarial patches to implement a Hiding Attack (HA) which patches the target object to make it disappear from the detector, and an Appearing Attack (AA) which fools the detector into misclassifying the patch as a specific object. Recently, many defense methods for detectors have been proposed to mitigate the potential threats of adversarial patches. However, such methods still have limitations in generalization, robustness and efficiency. Most defenses are only effective against the HA, leaving the detector vulnerable to the AA. In this paper, we propose \textit{NutNet}, an innovative model for detecting adversarial patches, with high generalization, robustness and efficiency. With experiments for six detectors including YOLOv2-v4, SSD, Faster RCNN and DETR on both digital and physical domains, the results show that our proposed method can effectively defend against both the HA and AA, with only 0.4\% sacrifice of the clean performance. We compare NutNet with four baseline defense methods for detectors, and our method exhibits an average defense performance that is over 2.4 times and 4.7 times higher than existing approaches for HA and AA, respectively. In addition, NutNet only increases the inference time by 8\%, which can meet the real-time requirements of the detection systems. Demos of NutNet are available at: \url{https://sites.google.com/view/nutnet}.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、オブジェクト検出のようなコンピュータビジョンの分野に革命をもたらした。
しかし、既存の研究では、DNNは敵の攻撃に弱いことが示されている。
物理的な世界では、敵は敵のパッチを悪用して、ターゲットのオブジェクトにパッチを当てて検出器から消えさせるHiding Attack (HA) と、検出器を騙して特定のオブジェクトと誤分類するAppearing Attack (AA) を実装した。
近年,敵パッチの潜在的な脅威を軽減するため,検出器の防御方法が多数提案されている。
しかし、そのような手法には、一般化、堅牢性、効率性に制限がある。
ほとんどの防御はHAに対して有効であり、検知器はAAに弱いままである。
本稿では,高一般化,ロバスト性,効率性を備えた逆パッチ検出の革新的なモデルである \textit{NutNet} を提案する。
デジタル領域と物理領域の両方において, YOLOv2-v4, SSD, Faster RCNN, DETRの6つの検出器を実験した結果, 提案手法はHAとAAの両方に対して有効に防御でき, クリーン性能は 0.4 % しか犠牲にならないことがわかった。
我々は,NutNetを検出器の4つのベースライン防御法と比較し,従来のHAとAAの4.7倍の防御性能を示す。
さらに、NutNetは、検出システムのリアルタイム要件を満たすことができる8\%の推論時間しか増加しない。
NutNetのデモは: \url{https://sites.google.com/view/nutnet}.comで公開されている。
関連論文リスト
- HOLMES: to Detect Adversarial Examples with Multiple Detectors [1.455585466338228]
HOLMESは、高い精度と偽陽性率の低い複数の攻撃から、テクスチュンシンの敵の例を識別することができる。
我々の効果的で安価な戦略は、オリジナルのDNNモデルを変更したり、内部パラメータを必要としたりしない。
論文 参考訳(メタデータ) (2024-05-30T11:22:55Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Defending Against Person Hiding Adversarial Patch Attack with a
Universal White Frame [28.128458352103543]
高性能物体検出ネットワークは、敵のパッチ攻撃に対して脆弱である。
人身攻撃は、多くの安全クリティカルなアプリケーションにおいて深刻な問題として浮上している。
防御パターンを最適化することで人身攻撃を緩和する新しい防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-04-27T15:18:08Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - Detect and Defense Against Adversarial Examples in Deep Learning using
Natural Scene Statistics and Adaptive Denoising [12.378017309516965]
本稿では,DNN を敵のサンプルから守るためのフレームワークを提案する。
この検出器は、自然の景観統計を利用してAEを検出することを目的としている。
提案手法は最先端の防御技術より優れている。
論文 参考訳(メタデータ) (2021-07-12T23:45:44Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - RPATTACK: Refined Patch Attack on General Object Detectors [31.28929190510979]
汎用物体検出器を攻撃する新しいパッチベースの手法を提案する。
私たちの RPAttack は、Yolo v4 と Faster R-CNN の両方で、驚異的なミス検出率 100% を達成できます。
論文 参考訳(メタデータ) (2021-03-23T11:45:41Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - DPAttack: Diffused Patch Attacks against Universal Object Detection [66.026630370248]
対象検出に対する敵対攻撃は、全画素攻撃とパッチ攻撃の2つのカテゴリに分けられる。
小惑星や格子状形状の拡散パッチを用いて物体検出装置を騙すための拡散パッチ攻撃(textbfDPAttack)を提案する。
実験の結果、我々のDPAttackは拡散パッチでほとんどの物体検出器を騙すことに成功した。
論文 参考訳(メタデータ) (2020-10-16T04:48:24Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。