論文の概要: Evaluating Adversarial Attacks on Driving Safety in Vision-Based
Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2108.02940v1
- Date: Fri, 6 Aug 2021 04:52:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-09 14:33:24.095271
- Title: Evaluating Adversarial Attacks on Driving Safety in Vision-Based
Autonomous Vehicles
- Title(参考訳): 視覚に基づく自律走行車の運転安全に対する敵意攻撃の評価
- Authors: Jindi Zhang, Yang Lou, Jianping Wang, Kui Wu, Kejie Lu, Xiaohua Jia
- Abstract要約: 近年、多くのディープラーニングモデルが自動運転に採用されている。
近年の研究では、敵対的攻撃がディープラーニングに基づく3次元物体検出モデルの検出精度を著しく低下させることが示されている。
- 参考スコア(独自算出の注目度): 21.894836150974093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, many deep learning models have been adopted in autonomous
driving. At the same time, these models introduce new vulnerabilities that may
compromise the safety of autonomous vehicles. Specifically, recent studies have
demonstrated that adversarial attacks can cause a significant decline in
detection precision of deep learning-based 3D object detection models. Although
driving safety is the ultimate concern for autonomous driving, there is no
comprehensive study on the linkage between the performance of deep learning
models and the driving safety of autonomous vehicles under adversarial attacks.
In this paper, we investigate the impact of two primary types of adversarial
attacks, perturbation attacks and patch attacks, on the driving safety of
vision-based autonomous vehicles rather than the detection precision of deep
learning models. In particular, we consider two state-of-the-art models in
vision-based 3D object detection, Stereo R-CNN and DSGN. To evaluate driving
safety, we propose an end-to-end evaluation framework with a set of driving
safety performance metrics. By analyzing the results of our extensive
evaluation experiments, we find that (1) the attack's impact on the driving
safety of autonomous vehicles and the attack's impact on the precision of 3D
object detectors are decoupled, and (2) the DSGN model demonstrates stronger
robustness to adversarial attacks than the Stereo R-CNN model. In addition, we
further investigate the causes behind the two findings with an ablation study.
The findings of this paper provide a new perspective to evaluate adversarial
attacks and guide the selection of deep learning models in autonomous driving.
- Abstract(参考訳): 近年、自動運転に多くのディープラーニングモデルが採用されている。
同時に、これらのモデルは自動運転車の安全性を損なう可能性のある新しい脆弱性を導入している。
特に最近の研究では、敵対攻撃がディープラーニングに基づく3次元物体検出モデルの検出精度を著しく低下させることが示されている。
運転安全は自動運転の究極の関心事であるが、ディープラーニングモデルのパフォーマンスと、敵対的攻撃による自動運転車の運転安全性の関連性に関する包括的研究は行われていない。
本稿では,深層学習モデルの検出精度よりも,視覚に基づく自律走行車両の運転安全性に及ぼす摂動攻撃とパッチ攻撃の2つの主な相反攻撃の影響について検討する。
特に,視覚に基づく3次元物体検出ではステレオr-cnnとdsgnという2つの最先端モデルが検討されている。
運転安全性を評価するため,運転安全性能指標のセットを用いたエンドツーエンド評価フレームワークを提案する。
評価実験の結果から,(1)自動運転車の運転安全性に対する攻撃の影響と3次元物体検出器の精度に対する攻撃の影響は分離され,(2)DSGNモデルはステレオR-CNNモデルよりも強い敵攻撃に対する強靭性を示すことがわかった。
また,この2つの研究の背景となる要因についても検討した。
本研究は,敵対的攻撃を評価し,自律運転における深層学習モデルの選択を導く新しい視点を提供する。
関連論文リスト
- Attack End-to-End Autonomous Driving through Module-Wise Noise [4.281151553151594]
本稿では,モジュラー・エンド・エンド・エンド・エンドの自律運転モデルに関する総合的対角セキュリティ研究を行う。
モデル推論プロセスにおける潜在的な脆弱性を徹底的に検討し、モジュールワイドノイズ注入によるユニバーサルアタックスキームを設計する。
本研究では,フルスタック自動運転モデルを用いた大規模実験を行い,攻撃手法が従来の攻撃方法より優れていることを示す。
論文 参考訳(メタデータ) (2024-09-12T02:19:16Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - DRUformer: Enhancing the driving scene Important object detection with
driving relationship self-understanding [50.81809690183755]
交通事故はしばしば致命傷を負い、2023年まで5000万人以上の死者を出した。
従来の研究は、主に個々の参加者の重要性を評価し、それらを独立した存在として扱うものであった。
本稿では、重要な物体検出タスクを強化するために、運転シーン関連自己理解変換器(DRUformer)を紹介する。
論文 参考訳(メタデータ) (2023-11-11T07:26:47Z) - A Survey of Robustness and Safety of 2D and 3D Deep Learning Models
Against Adversarial Attacks [22.054275309336]
ディープラーニングモデルは、敵の攻撃に対する堅牢性に制限があるため、十分に信頼できない。
まず、異なる視点から一般的な脅威モデルを構築し、それから2次元および3次元の敵攻撃の最新の進展を包括的にレビューする。
我々は3次元モデルに対する敵攻撃を体系的に研究した最初の人物である。
論文 参考訳(メタデータ) (2023-10-01T10:16:33Z) - ReMAV: Reward Modeling of Autonomous Vehicles for Finding Likely Failure
Events [1.84926694477846]
本稿では、まず、オフライン軌道を用いて、既存の自動運転車の挙動を分析するブラックボックステストフレームワークを提案する。
実験の結果,車両衝突,道路物体衝突,歩行者衝突,オフロードステアリング事故の発生率は35,23,48,50%増加した。
論文 参考訳(メタデータ) (2023-08-28T13:09:00Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - Targeted Attack on Deep RL-based Autonomous Driving with Learned Visual
Patterns [18.694795507945603]
近年の研究では、敵の攻撃に対する深い強化学習を通じて学んだコントロールポリシーの脆弱性が実証されている。
本研究では, 物理的対象物に配置した視覚的学習パターンを用いて, 標的攻撃の実現可能性について検討する。
論文 参考訳(メタデータ) (2021-09-16T04:59:06Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Deep Learning-Based Autonomous Driving Systems: A Survey of Attacks and
Defenses [13.161104978510943]
この調査は、自動運転システムを危うくする可能性のあるさまざまな攻撃の詳細な分析を提供する。
さまざまなディープラーニングモデルに対する敵意攻撃と、物理的およびサイバー的コンテキストにおける攻撃をカバーする。
深層学習に基づく自動運転の安全性を向上させるために、いくつかの有望な研究方向が提案されている。
論文 参考訳(メタデータ) (2021-04-05T06:31:47Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。