論文の概要: SlowTrack: Increasing the Latency of Camera-based Perception in
Autonomous Driving Using Adversarial Examples
- arxiv url: http://arxiv.org/abs/2312.09520v2
- Date: Tue, 26 Dec 2023 13:02:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-28 01:24:21.299259
- Title: SlowTrack: Increasing the Latency of Camera-based Perception in
Autonomous Driving Using Adversarial Examples
- Title(参考訳): SlowTrack: 反対例を用いた自律運転におけるカメラベース知覚のレイテンシ向上
- Authors: Chen Ma, Ningfei Wang, Qi Alfred Chen, Chao Shen
- Abstract要約: 我々は、カメラベースのAD知覚の実行時間を増やすために、敵攻撃を生成するフレームワークであるSlowTrackを提案する。
評価の結果,SlowTrackの車両衝突速度は平均95%程度であり,システムレベルの影響は著しく改善できることがわかった。
- 参考スコア(独自算出の注目度): 29.181660544576406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Autonomous Driving (AD), real-time perception is a critical component
responsible for detecting surrounding objects to ensure safe driving. While
researchers have extensively explored the integrity of AD perception due to its
safety and security implications, the aspect of availability (real-time
performance) or latency has received limited attention. Existing works on
latency-based attack have focused mainly on object detection, i.e., a component
in camera-based AD perception, overlooking the entire camera-based AD
perception, which hinders them to achieve effective system-level effects, such
as vehicle crashes. In this paper, we propose SlowTrack, a novel framework for
generating adversarial attacks to increase the execution time of camera-based
AD perception. We propose a novel two-stage attack strategy along with the
three new loss function designs. Our evaluation is conducted on four popular
camera-based AD perception pipelines, and the results demonstrate that
SlowTrack significantly outperforms existing latency-based attacks while
maintaining comparable imperceptibility levels. Furthermore, we perform the
evaluation on Baidu Apollo, an industry-grade full-stack AD system, and LGSVL,
a production-grade AD simulator, with two scenarios to compare the system-level
effects of SlowTrack and existing attacks. Our evaluation results show that the
system-level effects can be significantly improved, i.e., the vehicle crash
rate of SlowTrack is around 95% on average while existing works only have
around 30%.
- Abstract(参考訳): 自律運転(AD)では、リアルタイム認識は周囲の物体を検知して安全な運転を確実にするための重要な要素である。
研究者は、その安全性とセキュリティの影響から、広告知覚の完全性を検討したが、可用性(リアルタイムパフォーマンス)やレイテンシの側面は、あまり注目されていない。
既存の遅延ベースの攻撃の研究は、主にオブジェクト検出、すなわちカメラベースのAD知覚のコンポーネントに焦点を当てており、カメラベースのAD認識全体を見渡すことで、車両のクラッシュのような効果的なシステムレベルの効果を達成するのを妨げている。
本稿では,カメラベースの広告知覚の実行時間を増やすために,敵対的攻撃を発生させる新しいフレームワークであるslowtrackを提案する。
3つの新しい損失関数設計とともに,新たな2段階攻撃戦略を提案する。
その結果,SlowTrackは既存の遅延ベースの攻撃に対して,同等の非受容レベルを維持しながら有意に優れていたことがわかった。
さらに,業界レベルのフルスタックADシステムであるBaidu Apolloと,生産レベルのADシミュレータであるLGSVLについて,SlowTrackと既存攻撃のシステムレベル効果を比較する2つのシナリオで評価を行った。
評価の結果,slowtrackの車両クラッシュ率は平均で95%程度であり,既存の作業では30%程度であることがわかった。
関連論文リスト
- ControlLoc: Physical-World Hijacking Attack on Visual Perception in Autonomous Driving [30.286501966393388]
危険な運転シナリオを引き起こすために、デジタルハイジャック攻撃が提案されている。
我々は、自律運転(AD)視覚認識全体のハイジャック脆弱性を活用するために設計された、新しい物理世界の逆パッチアタックであるControlLocを導入する。
論文 参考訳(メタデータ) (2024-06-09T14:53:50Z) - SlowPerception: Physical-World Latency Attack against Visual Perception in Autonomous Driving [26.669905199110755]
視覚知覚成分の高遅延は、車両衝突などの安全リスクにつながる可能性がある。
我々は、プロジェクタベースの普遍摂動を生成することによって、AD知覚に対する最初の物理世界の遅延攻撃であるSlowPerceptionを紹介する。
当社のSlowPerceptionでは,AD認識システム間で平均2.5秒のレイテンシで,物理世界の第2レベルのレイテンシを実現しています。
論文 参考訳(メタデータ) (2024-06-09T14:30:18Z) - LanEvil: Benchmarking the Robustness of Lane Detection to Environmental Illusions [61.87108000328186]
レーン検出(LD)は自律走行システムにおいて不可欠な要素であり、適応型クルーズ制御や自動車線センターなどの基本的な機能を提供している。
既存のLDベンチマークは主に、環境錯覚に対するLDモデルの堅牢性を無視し、一般的なケースを評価することに焦点を当てている。
本稿では、LDに対する環境錯覚による潜在的な脅威について検討し、LanEvilの最初の総合ベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-03T02:12:27Z) - Does Physical Adversarial Example Really Matter to Autonomous Driving?
Towards System-Level Effect of Adversarial Object Evasion Attack [39.08524903081768]
自律運転(AD)では、安全で安全な運転を実現するためには正確な認識が不可欠である。
特にADでは、身体的対向的物体回避攻撃が重篤である。
既存の文献はすべて、攻撃効果をAIコンポーネントレベルで評価するが、システムレベルでは評価しない。
我々は、ADコンテキストにおける新しいシステム駆動アタック設計であるSysAdvを提案する。
論文 参考訳(メタデータ) (2023-08-23T03:40:47Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - Recurrent Vision Transformers for Object Detection with Event Cameras [62.27246562304705]
本稿では,イベントカメラを用いた物体検出のための新しいバックボーンであるリカレントビジョントランス (RVT) を提案する。
RVTは、イベントベースのオブジェクト検出で最先端のパフォーマンスに到達するために、ゼロからトレーニングすることができる。
私たちの研究は、イベントベースのビジョンを超えた研究に役立ち得る効果的なデザイン選択に、新たな洞察をもたらします。
論文 参考訳(メタデータ) (2022-12-11T20:28:59Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - Streaming Object Detection for 3-D Point Clouds [29.465873948076766]
LiDARは、多くの既存の知覚システムに通知する顕著な感覚モダリティを提供する。
ポイントクラウドデータに基づく知覚システムのレイテンシは、完全なローテーションスキャンの時間量によって支配される。
我々は、LiDARデータをそのネイティブストリーミング定式化で操作することで、自動運転オブジェクト検出にいくつかの利点があることを示す。
論文 参考訳(メタデータ) (2020-05-04T21:55:15Z) - Training-free Monocular 3D Event Detection System for Traffic
Surveillance [93.65240041833319]
既存のイベント検出システムは、主に学習ベースであり、大量のトレーニングデータが利用可能な場合、十分なパフォーマンスを実現している。
現実のシナリオでは、十分なラベル付きトレーニングデータの収集は高価であり、時には不可能である。
本稿では,交通監視のためのトレーニング不要な単眼3Dイベント検出システムを提案する。
論文 参考訳(メタデータ) (2020-02-01T04:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。