論文の概要: Adversarial Attack and Defense of YOLO Detectors in Autonomous Driving
Scenarios
- arxiv url: http://arxiv.org/abs/2202.04781v1
- Date: Thu, 10 Feb 2022 00:47:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 15:57:46.583575
- Title: Adversarial Attack and Defense of YOLO Detectors in Autonomous Driving
Scenarios
- Title(参考訳): 自律走行シナリオにおけるYOLO検出器の逆攻撃と防御
- Authors: Jung Im Choi, Qing Tian
- Abstract要約: 本稿では,自律走行車における視覚的検出の客観性に着目した効果的な攻撃戦略を提案する。
実験の結果、対象のアスペクトを標的とした攻撃は45.17%と43.50%が、分類や局所化の損失から生じた攻撃よりも効果的であることが示されている。
提案手法は, KITTI と COCO_traffic でそれぞれ最大21% と 12% mAP の目標指向攻撃に対する検出器の堅牢性を向上させることができる。
- 参考スコア(独自算出の注目度): 3.236217153362305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual detection is a key task in autonomous driving, and it serves as one
foundation for self-driving planning and control. Deep neural networks have
achieved promising results in various computer vision tasks, but they are known
to be vulnerable to adversarial attacks. A comprehensive understanding of deep
visual detectors' vulnerability is required before people can improve their
robustness. However, only a few adversarial attack/defense works have focused
on object detection, and most of them employed only classification and/or
localization losses, ignoring the objectness aspect. In this paper, we identify
a serious objectness-related adversarial vulnerability in YOLO detectors and
present an effective attack strategy aiming the objectness aspect of visual
detection in autonomous vehicles. Furthermore, to address such vulnerability,
we propose a new objectness-aware adversarial training approach for visual
detection. Experiments show that the proposed attack targeting the objectness
aspect is 45.17% and 43.50% more effective than those generated from
classification and/or localization losses on the KITTI and COCO_traffic
datasets, respectively. Also, the proposed adversarial defense approach can
improve the detectors' robustness against objectness-oriented attacks by up to
21% and 12% mAP on KITTI and COCO_traffic, respectively.
- Abstract(参考訳): 視覚検出は自動運転における重要なタスクであり、自動運転計画と制御の基盤となっている。
ディープニューラルネットワークは様々なコンピュータビジョンタスクにおいて有望な結果を得たが、敵の攻撃に弱いことが知られている。
深い視覚検出器の脆弱性を包括的に理解するためには、ロバスト性を改善する必要がある。
しかし、対物検出に焦点を絞った敵対的な攻撃/防御活動はごくわずかであり、そのほとんどは、対象性面を無視して、分類および/または局所化の損失のみを採用した。
本稿では、YOLO検出器の真剣な対向性関連脆弱性を特定し、自律走行車における視覚的検出の客観性に着目した効果的な攻撃戦略を提案する。
さらに,このような脆弱性に対処するため,視覚的検出のための新たな対人学習手法を提案する。
実験の結果、対象のアスペクトをターゲットにした攻撃は、KITTIとCOCO_trafficデータセットの分類および/またはローカライゼーション損失から生成された攻撃よりも45.17%、43.50%有効であることが示されている。
また,提案手法は,KITTIおよびCOCO_traffic上で,最大21%と12%のmAPで対物攻撃に対する検出器の堅牢性を向上させることができる。
関連論文リスト
- A Survey and Evaluation of Adversarial Attacks for Object Detection [11.48212060875543]
ディープラーニングモデルは、様々なコンピュータビジョンタスクにおいて優れているが、誤った予測につながる入力データの逆例-サブトル摂動の影響を受けやすい。
この脆弱性は、自動運転車、セキュリティ監視、航空機の健康監視など、安全に重要なアプリケーションに重大なリスクをもたらす。
論文 参考訳(メタデータ) (2024-08-04T05:22:08Z) - ControlLoc: Physical-World Hijacking Attack on Visual Perception in Autonomous Driving [30.286501966393388]
危険な運転シナリオを引き起こすために、デジタルハイジャック攻撃が提案されている。
我々は、自律運転(AD)視覚認識全体のハイジャック脆弱性を活用するために設計された、新しい物理世界の逆パッチアタックであるControlLocを導入する。
論文 参考訳(メタデータ) (2024-06-09T14:53:50Z) - Improving the Robustness of Object Detection and Classification AI models against Adversarial Patch Attacks [2.963101656293054]
我々は攻撃手法を解析し、堅牢な防御手法を提案する。
我々は,物体形状,テクスチャ,位置を利用する逆パッチ攻撃を用いて,モデル信頼度を20%以上下げることに成功した。
敵攻撃にも拘わらず,本手法はモデルレジリエンスを著しく向上させ,高精度かつ信頼性の高いローカライゼーションを実現している。
論文 参考訳(メタデータ) (2024-03-04T13:32:48Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Temporally-Transferable Perturbations: Efficient, One-Shot Adversarial
Attacks for Online Visual Object Trackers [81.90113217334424]
本研究では, オブジェクトテンプレート画像からのみ, 一時移動可能な対人的摂動を生成するフレームワークを提案する。
この摂動はあらゆる検索画像に追加され、事実上何のコストもかからないが、それでもトラッカーを騙すのに成功している。
論文 参考訳(メタデータ) (2020-12-30T15:05:53Z) - Understanding Object Detection Through An Adversarial Lens [14.976840260248913]
本稿では, 対向レンズ下での深部物体検出装置の脆弱性を分析し評価するための枠組みを提案する。
提案手法は, リアルタイムオブジェクト検出システムにおいて, 対向行動やリスクを解析するための方法論的ベンチマークとして機能することが実証された。
我々は、このフレームワークが、現実世界のアプリケーションにデプロイされるディープオブジェクト検出器のセキュリティリスクと敵の堅牢性を評価するツールとしても役立つと推測する。
論文 参考訳(メタデータ) (2020-07-11T18:41:47Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - TOG: Targeted Adversarial Objectness Gradient Attacks on Real-time
Object Detection Systems [14.976840260248913]
本稿では,3つの対象対向対象度勾配攻撃により,オブジェクトの消滅,オブジェクトのファブリケーション,オブジェクトのミスラベリングが生じることを示す。
また,ブラックボックス攻撃に対して,対向移動性を利用する汎用的オブジェクト指向勾配攻撃を提案する。
その結果、深刻な敵の脆弱性が示され、堅牢な物体検出システムを開発するための説得力のある必要性が示された。
論文 参考訳(メタデータ) (2020-04-09T01:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。