論文の概要: Fooling the Eyes of Autonomous Vehicles: Robust Physical Adversarial
Examples Against Traffic Sign Recognition Systems
- arxiv url: http://arxiv.org/abs/2201.06192v1
- Date: Mon, 17 Jan 2022 03:24:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 13:30:05.674743
- Title: Fooling the Eyes of Autonomous Vehicles: Robust Physical Adversarial
Examples Against Traffic Sign Recognition Systems
- Title(参考訳): 自動運転車の視線を食う:交通信号認識システムに対するロバストな物理的対抗例
- Authors: Wei Jia, Zhaojun Lu, Haichun Zhang, Zhenglin Liu, Jie Wang, Gang Qu
- Abstract要約: 逆例(AE)はディープニューラルネットワーク(DNN)を騙すことができる
本稿では,実世界の物体検出装置に対して,ロバストな物理AEを生成するための系統的パイプラインを提案する。
YOLO v5ベースの交通信号認識システムを攻撃する場合, パイプラインから生成された物理AEは有効かつ堅牢であることを示す実験を行った。
- 参考スコア(独自算出の注目度): 10.310327880799017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial Examples (AEs) can deceive Deep Neural Networks (DNNs) and have
received a lot of attention recently. However, majority of the research on AEs
is in the digital domain and the adversarial patches are static, which is very
different from many real-world DNN applications such as Traffic Sign
Recognition (TSR) systems in autonomous vehicles. In TSR systems, object
detectors use DNNs to process streaming video in real time. From the view of
object detectors, the traffic sign`s position and quality of the video are
continuously changing, rendering the digital AEs ineffective in the physical
world.
In this paper, we propose a systematic pipeline to generate robust physical
AEs against real-world object detectors. Robustness is achieved in three ways.
First, we simulate the in-vehicle cameras by extending the distribution of
image transformations with the blur transformation and the resolution
transformation. Second, we design the single and multiple bounding boxes
filters to improve the efficiency of the perturbation training. Third, we
consider four representative attack vectors, namely Hiding Attack, Appearance
Attack, Non-Target Attack and Target Attack.
We perform a comprehensive set of experiments under a variety of
environmental conditions, and considering illuminations in sunny and cloudy
weather as well as at night. The experimental results show that the physical
AEs generated from our pipeline are effective and robust when attacking the
YOLO v5 based TSR system. The attacks have good transferability and can deceive
other state-of-the-art object detectors. We launched HA and NTA on a brand-new
2021 model vehicle. Both attacks are successful in fooling the TSR system,
which could be a life-threatening case for autonomous vehicles. Finally, we
discuss three defense mechanisms based on image preprocessing, AEs detection,
and model enhancing.
- Abstract(参考訳): Adversarial Examples(AE)はDeep Neural Networks(DNN)を騙し、最近多くの注目を集めている。
しかし、AEsの研究の大部分はデジタルドメインにあり、敵のパッチは静的であり、自動運転車における交通信号認識(TSR)システムのような現実のDNNアプリケーションとは大きく異なる。
TSRシステムでは、オブジェクト検出器はDNNを使用してストリーミングビデオをリアルタイムで処理する。
オブジェクト検出器の観点からは、トラフィックサインの位置とビデオの品質は継続的に変化しており、デジタルAEは物理的な世界では効果がない。
本稿では,実世界の物体検出装置に対して,ロバストな物理AEを生成するためのシステムパイプラインを提案する。
堅牢性は3つの方法で達成される。
まず,画像変換の分布をぼかし変換と解像度変換で拡張することで車載カメラをシミュレートする。
第2に、摂動トレーニングの効率を向上させるために、単一および複数境界ボックスフィルタを設計する。
第3に,隠れ攻撃,外観攻撃,非標的攻撃,標的攻撃の4つの代表的な攻撃ベクトルを検討する。
我々は、様々な環境条件下で総合的な実験を行い、日当たりや曇りの天候や夜間の照度を考慮している。
実験結果から, YOLO v5 ベースの TSR システムを攻撃する場合, パイプラインから発生する物理的 AE は有効かつ堅牢であることがわかった。
攻撃は転送性が高く、他の最先端の物体検出器を欺くことができる。
私たちは2021年モデルでhaとntaを打ち上げました。
どちらの攻撃もTSRシステムを騙すことに成功している。
最後に,画像前処理,AE検出,モデル強化に基づく3つの防御機構について論じる。
関連論文リスト
- Transient Adversarial 3D Projection Attacks on Object Detection in Autonomous Driving [15.516055760190884]
本稿では,自律運転シナリオにおける物体検出を対象とする3Dプロジェクション攻撃を提案する。
本研究は, YOLOv3 と Mask R-CNN の物理環境における攻撃効果を示すものである。
論文 参考訳(メタデータ) (2024-09-25T22:27:11Z) - Object Detection for Vehicle Dashcams using Transformers [2.3243389656894595]
トランスを用いたダッシュカムにおける物体検出のための新しい手法を提案する。
我々のシステムは、最先端検出TRansformer (DETR) に基づいている。
以上の結果から,変圧器によるインテリジェントな自動化は,ダッシュカムシステムの能力を大幅に向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2024-08-28T14:08:24Z) - TPatch: A Triggered Physical Adversarial Patch [19.768494127237393]
音響信号によって引き起こされる物理的対向パッチであるTPatchを提案する。
運転者の疑念を避けるため,コンテンツベースカモフラージュ法と攻撃強化法を提案する。
論文 参考訳(メタデータ) (2023-12-30T06:06:01Z) - Unified Adversarial Patch for Cross-modal Attacks in the Physical World [11.24237636482709]
単一パッチにより同時に可視・近赤外物体検出装置を騙すための一元対向パッチを提案する。
可視・赤外線センサの異なるイメージング機構を考慮すると、我々の研究は対向パッチの形状をモデル化することに集中している。
その結果、我々の統一パッチは、それぞれ73.33%と69.17%のアタック成功率(ASR)を達成した。
論文 参考訳(メタデータ) (2023-07-15T17:45:17Z) - DPA: Learning Robust Physical Adversarial Camouflages for Object
Detectors [5.598600329573922]
そこで本研究では,Dense Proposals Attack (DPA) を提案し,検出器の頑健で物理的,ターゲットとした対向カモフラージュを学習する。
カモフラージュは、任意の視点と異なる照明条件下で撮影されたとき、敵対的であり続けるため、頑丈である。
We build a virtual 3D scene using the Unity Simulation engine to evaluate fair and reproducally different physical attack。
論文 参考訳(メタデータ) (2021-09-01T00:18:17Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Robust Attacks on Deep Learning Face Recognition in the Physical World [48.909604306342544]
FaceAdvは、敵のステッカーを使ってFRシステムを騙す物理世界の攻撃だ。
主にステッカージェネレータとトランスフォーマーで構成され、前者は異なる形状のステッカーを作れる。
3種類のFRシステムに対するFaceAdvの有効性を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-11-27T02:24:43Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。