論文の概要: Security Analysis of Camera-LiDAR Semantic-Level Fusion Against
Black-Box Attacks on Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2106.07098v1
- Date: Sun, 13 Jun 2021 21:59:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 07:00:41.803235
- Title: Security Analysis of Camera-LiDAR Semantic-Level Fusion Against
Black-Box Attacks on Autonomous Vehicles
- Title(参考訳): 自動走行車におけるブラックボックス攻撃に対するカメラ-LiDARセマンティックレベル融合のセキュリティ解析
- Authors: R. Spencer Hallyburton, Yupei Liu, Miroslav Pajic
- Abstract要約: 近年、深いニューラルネットワーク上に構築されたLiDARベースの知覚は、スプーフィング攻撃に弱いことが示されている。
我々は、スプーフィング攻撃下でのカメラ-LiDAR融合の最初の解析と、任意のAVコンテキストにおけるセマンティックフュージョンの最初のセキュリティ解析を行う。
セマンティックカメラとLiDARの融合は、標的モデルに対して70%から90%の成功率でフラストタル攻撃に対する広範な脆弱性を示す。
- 参考スコア(独自算出の注目度): 6.477833151094911
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To enable safe and reliable decision-making, autonomous vehicles (AVs) feed
sensor data to perception algorithms to understand the environment. Sensor
fusion, and particularly semantic fusion, with multi-frame tracking is becoming
increasingly popular for detecting 3D objects. Recently, it was shown that
LiDAR-based perception built on deep neural networks is vulnerable to LiDAR
spoofing attacks. Thus, in this work, we perform the first analysis of
camera-LiDAR fusion under spoofing attacks and the first security analysis of
semantic fusion in any AV context. We find first that fusion is more successful
than existing defenses at guarding against naive spoofing. However, we then
define the frustum attack as a new class of attacks on AVs and find that
semantic camera-LiDAR fusion exhibits widespread vulnerability to frustum
attacks with between 70% and 90% success against target models. Importantly,
the attacker needs less than 20 random spoof points on average for successful
attacks - an order of magnitude less than established maximum capability.
Finally, we are the first to analyze the longitudinal impact of perception
attacks by showing the impact of multi-frame attacks.
- Abstract(参考訳): 安全で信頼性の高い意思決定を可能にするために、自動運転車はセンサーデータを知覚アルゴリズムに供給し、環境を理解する。
センサ・フュージョン、特にセマンティック・フュージョンとマルチフレーム・トラッキングは、ますます3Dオブジェクトの検出に人気が高まっている。
近年,深層ニューラルネットワークに基づくlidarベースの知覚は,lidarスプーフィング攻撃に対して脆弱であることが示されている。
そこで本研究では,スプーフィング攻撃下でのカメラ-LiDAR融合の最初の解析と,任意のAVコンテキストにおけるセマンティックフュージョンの最初のセキュリティ解析を行う。
まず第一に、核融合は既存の防御よりも、ナイーブなスプーフィングに対する防御よりも成功している。
しかし、このフラストラム攻撃はAVに対する新たな攻撃のクラスとして定義し、セマンティックカメラ-LiDAR融合が標的モデルに対して70%から90%の成功率でフラストラム攻撃に対する広範な脆弱性を示すことを示した。
重要なことに、攻撃者は攻撃を成功させるために平均20個未満のランダムなスプーフポイントを必要とします。
最後に,マルチフレーム攻撃の影響を示すことにより,知覚攻撃の縦方向の影響を初めて分析する。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - ADoPT: LiDAR Spoofing Attack Detection Based on Point-Level Temporal
Consistency [11.160041268858773]
ディープニューラルネットワーク(DNN)は、自動運転車(AV)のためのLiDARベースの知覚システムにますます統合されている
我々は,攻撃者がLiDARデータに偽のオブジェクトを注入し,その環境を誤解釈して誤った判断を下すという,LiDAR偽造攻撃の課題に対処することを目指している。
ADoPT (Anomaly Detection based on Point-level Temporal consistency) は、連続するフレーム間の時間的一貫性を定量的に測定し、ポイントクラスタのコヒーレンシーに基づいて異常物体を同定する。
nuScenesデータセットを用いた評価では、アルゴリズムは様々なLiDARスプーフィング攻撃に対して効果的に対応し、低(低)を実現している。
論文 参考訳(メタデータ) (2023-10-23T02:31:31Z) - Fusion is Not Enough: Single Modal Attacks on Fusion Models for 3D
Object Detection [33.0406308223244]
本稿では,高度なカメラ-LiDAR融合型3次元物体検出モデルを対象として,カメラ専用対向攻撃による攻撃フレームワークを提案する。
提案手法では,2段階の最適化手法を用いて,まず,敵対的攻撃下での脆弱な画像領域を徹底的に評価する。
論文 参考訳(メタデータ) (2023-04-28T03:39:00Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Towards Robust LiDAR-based Perception in Autonomous Driving: General
Black-box Adversarial Sensor Attack and Countermeasures [24.708895480220733]
LiDARをベースとした認識は、被害者の自動運転車の前で敵が偽の車両をスポークする攻撃に対して脆弱である。
我々は、現在のLiDARベースの知覚アーキテクチャの一般的な脆弱性を調査するための最初の研究を行う。
特定された脆弱性に基づいた最初のブラックボックススプーフィング攻撃を構築し、平均成功率の約80%を普遍的に達成した。
論文 参考訳(メタデータ) (2020-06-30T17:07:45Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。