論文の概要: Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks
- arxiv url: http://arxiv.org/abs/2106.09249v1
- Date: Thu, 17 Jun 2021 05:11:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 15:59:47.470290
- Title: Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks
- Title(参考訳): カメラとLiDARの両方に見えない:物理世界攻撃時の自律走行におけるマルチセンサフュージョンによる知覚のセキュリティ
- Authors: Yulong Cao*, Ningfei Wang*, Chaowei Xiao*, Dawei Yang*, Jin Fang,
Ruigang Yang, Qi Alfred Chen, Mingyan Liu, Bo Li (*co-first authors)
- Abstract要約: 本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
- 参考スコア(独自算出の注目度): 62.923992740383966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Autonomous Driving (AD) systems, perception is both security and safety
critical. Despite various prior studies on its security issues, all of them
only consider attacks on camera- or LiDAR-based AD perception alone. However,
production AD systems today predominantly adopt a Multi-Sensor Fusion (MSF)
based design, which in principle can be more robust against these attacks under
the assumption that not all fusion sources are (or can be) attacked at the same
time. In this paper, we present the first study of security issues of MSF-based
perception in AD systems. We directly challenge the basic MSF design assumption
above by exploring the possibility of attacking all fusion sources
simultaneously. This allows us for the first time to understand how much
security guarantee MSF can fundamentally provide as a general defense strategy
for AD perception.
We formulate the attack as an optimization problem to generate a
physically-realizable, adversarial 3D-printed object that misleads an AD system
to fail in detecting it and thus crash into it. We propose a novel attack
pipeline that addresses two main design challenges: (1) non-differentiable
target camera and LiDAR sensing systems, and (2) non-differentiable cell-level
aggregated features popularly used in LiDAR-based AD perception. We evaluate
our attack on MSF included in representative open-source industry-grade AD
systems in real-world driving scenarios. Our results show that the attack
achieves over 90% success rate across different object types and MSF. Our
attack is also found stealthy, robust to victim positions, transferable across
MSF algorithms, and physical-world realizable after being 3D-printed and
captured by LiDAR and camera devices. To concretely assess the end-to-end
safety impact, we further perform simulation evaluation and show that it can
cause a 100% vehicle collision rate for an industry-grade AD system.
- Abstract(参考訳): 自律運転(AD)システムでは、安全と安全の両方が重要である。
セキュリティに関する様々な先行研究にもかかわらず、いずれもカメラまたはLiDARベースのAD認識のみに対する攻撃を考慮している。
しかし、現在のADシステムは、主にマルチセンサー・フュージョン(MSF)ベースの設計を採用しており、これは原則として全てのフュージョン・ソースが同時に攻撃されるわけではないという前提のもと、これらの攻撃に対してより堅牢である。
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
我々は、全ての核融合源を同時に攻撃する可能性を探ることで、上記の基本的MSF設計仮定に挑戦する。
これにより、msfが広告知覚に対する一般的な防衛戦略として、どの程度のセキュリティ保証を提供できるかを理解することができる。
我々は、この攻撃を最適化問題として定式化し、物理的に実現可能な3Dプリントオブジェクトを生成する。
我々は,(1)非微分可能なターゲットカメラとlidarセンシングシステム,(2)lidarベースの広告知覚で広く使用される非微分可能なセルレベルの集約機能,という2つの主な設計課題に対処する新しい攻撃パイプラインを提案する。
我々は、実世界の運転シナリオにおいて、業界レベルの広告システムの代表的存在であるmsfに対する攻撃を評価する。
その結果、攻撃は異なるオブジェクトタイプとmsfで90%以上の成功率を達成した。
当社の攻撃はまた、盗品で、被害者の位置に対して堅牢で、MSFアルゴリズムで転送可能で、LiDARとカメラデバイスで3Dプリントされ、キャプチャされた後、物理的な世界が実現可能であることもわかりました。
エンド・ツー・エンドの安全性への影響を具体的に評価するため,さらにシミュレーション評価を行い,業界レベルのADシステムにおいて100%の車両衝突率を生じることを示す。
関連論文リスト
- Navigating Threats: A Survey of Physical Adversarial Attacks on LiDAR Perception Systems in Autonomous Vehicles [4.4538254463902645]
LiDARシステムは敵の攻撃に弱いため、自動運転車の安全性と堅牢性に大きな課題が生じる。
本調査では,LiDARに基づく知覚システムを対象とした身体的敵攻撃に関する研究状況について概説する。
我々は、LiDARベースのシステムに対する既存の攻撃において、重要な課題を特定し、ギャップを浮き彫りにする。
論文 参考訳(メタデータ) (2024-09-30T15:50:36Z) - Can We Trust Embodied Agents? Exploring Backdoor Attacks against Embodied LLM-based Decision-Making Systems [27.316115171846953]
大規模言語モデル(LLM)は、実世界のAI意思決定タスクにおいて大きな可能性を示している。
LLMは、固有の常識と推論能力を活用するために微調整され、特定の用途に適合する。
この微調整プロセスは、特に安全クリティカルなサイバー物理システムにおいて、かなりの安全性とセキュリティの脆弱性をもたらす。
論文 参考訳(メタデータ) (2024-05-27T17:59:43Z) - Does Physical Adversarial Example Really Matter to Autonomous Driving?
Towards System-Level Effect of Adversarial Object Evasion Attack [39.08524903081768]
自律運転(AD)では、安全で安全な運転を実現するためには正確な認識が不可欠である。
特にADでは、身体的対向的物体回避攻撃が重篤である。
既存の文献はすべて、攻撃効果をAIコンポーネントレベルで評価するが、システムレベルでは評価しない。
我々は、ADコンテキストにおける新しいシステム駆動アタック設計であるSysAdvを提案する。
論文 参考訳(メタデータ) (2023-08-23T03:40:47Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Security Analysis of Camera-LiDAR Semantic-Level Fusion Against
Black-Box Attacks on Autonomous Vehicles [6.477833151094911]
近年、深いニューラルネットワーク上に構築されたLiDARベースの知覚は、スプーフィング攻撃に弱いことが示されている。
我々は、スプーフィング攻撃下でのカメラ-LiDAR融合の最初の解析と、任意のAVコンテキストにおけるセマンティックフュージョンの最初のセキュリティ解析を行う。
セマンティックカメラとLiDARの融合は、標的モデルに対して70%から90%の成功率でフラストタル攻撃に対する広範な脆弱性を示す。
論文 参考訳(メタデータ) (2021-06-13T21:59:19Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Dirty Road Can Attack: Security of Deep Learning based Automated Lane
Centering under Physical-World Attack [38.3805893581568]
本研究では,物理世界の敵対的攻撃下での最先端のディープラーニングに基づくALCシステムの安全性について検討する。
安全クリティカルな攻撃目標と、新しいドメイン固有の攻撃ベクトル、汚い道路パッチで問題を定式化する。
実世界の走行トレースから80のシナリオを用いて実運用ALCに対する攻撃を評価した。
論文 参考訳(メタデータ) (2020-09-14T19:22:39Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。