論文の概要: Experimental Security Analysis of DNN-based Adaptive Cruise Control
under Context-Aware Perception Attacks
- arxiv url: http://arxiv.org/abs/2307.08939v1
- Date: Tue, 18 Jul 2023 03:12:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 16:40:35.952919
- Title: Experimental Security Analysis of DNN-based Adaptive Cruise Control
under Context-Aware Perception Attacks
- Title(参考訳): 文脈認識型知覚攻撃によるDNN型適応クルーズ制御の実験セキュリティ解析
- Authors: Xugui Zhou and Anqi Chen and Maxfield Kouzel and Haotian Ren and
Morgan McCarty and Cristina Nita-Rotaru and Homa Alemzadeh
- Abstract要約: 本稿では,ディープニューラルネットワークを用いたACCシステムのステルス知覚攻撃時のセキュリティ評価を行う。
我々は、攻撃を誘発する最も重要な時間を選択するためのコンテキスト認識戦略を設計するための、知識とデータによる複合的なアプローチを提案する。
実験結果から, ランダム攻撃よりも事故発生率が142.9倍高いことが示唆された。
- 参考スコア(独自算出の注目度): 4.935912003513549
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adaptive Cruise Control (ACC) is a widely used driver assistance feature for
maintaining desired speed and safe distance to the leading vehicles. This paper
evaluates the security of the deep neural network (DNN) based ACC systems under
stealthy perception attacks that strategically inject perturbations into camera
data to cause forward collisions. We present a combined
knowledge-and-data-driven approach to design a context-aware strategy for the
selection of the most critical times for triggering the attacks and a novel
optimization-based method for the adaptive generation of image perturbations at
run-time. We evaluate the effectiveness of the proposed attack using an actual
driving dataset and a realistic simulation platform with the control software
from a production ACC system and a physical-world driving simulator while
considering interventions by the driver and safety features such as Automatic
Emergency Braking (AEB) and Forward Collision Warning (FCW). Experimental
results show that the proposed attack achieves 142.9x higher success rate in
causing accidents than random attacks and is mitigated 89.6% less by the safety
features while being stealthy and robust to real-world factors and dynamic
changes in the environment. This study provides insights into the role of human
operators and basic safety interventions in preventing attacks.
- Abstract(参考訳): アダプティブ・クルーズ・コントロール(ACC、Adaptive Cruise Control)は、先導車への所望の速度と安全な距離を維持するための運転補助機能である。
本稿では,カメラデータに摂動を戦略的に注入し,前方衝突を引き起こす盗聴攻撃を受けるディープニューラルネットワーク(DNN)ベースのACCシステムのセキュリティを評価する。
本稿では,攻撃を誘発するための最重要時間選択のための文脈認識戦略を設計するための知識・データ駆動手法と,実行時の画像摂動の適応生成のための新しい最適化ベース手法を提案する。
本研究は,運転者の介入や自動緊急ブレーキ (AEB) や前方衝突警報 (FCW) などの安全機能を考慮して,実運転データセットと実動シミュレーションプラットフォームを用いて実運用ACCシステムと実世界運転シミュレータの制御ソフトウェアを用いた攻撃の有効性を評価した。
実験結果から, ランダム攻撃よりも事故発生率が142.9倍向上し, 安全性特性により89.6%低下し, 現実の要因や環境の動的変化に頑健であることがわかった。
本研究は,攻撃防止におけるヒューマンオペレーターの役割と基本的な安全介入に関する知見を提供する。
関連論文リスト
- Physical Backdoor Attack can Jeopardize Driving with Vision-Large-Language Models [53.701148276912406]
Vision-Large-Language-models (VLMs) は自動運転において大きな応用可能性を持っている。
BadVLMDriverは、物理的オブジェクトを使用して実際に起動できる自動運転のためのVLMに対する最初のバックドア攻撃である。
BadVLMDriverは、赤い風船を持った歩行者に突如、加速を誘導する攻撃の成功率を92%達成する。
論文 参考訳(メタデータ) (2024-04-19T14:40:38Z) - Autonomous Driving With Perception Uncertainties: Deep-Ensemble Based Adaptive Cruise Control [6.492311803411367]
ブラックボックスDeep Neural Networks (DNN) を用いた高度な認識システムは、人間のような理解を実証する。
予測不可能な振る舞いと解釈可能性の欠如は、安全クリティカルなシナリオへの展開を妨げる可能性がある。
論文 参考訳(メタデータ) (2024-03-22T19:04:58Z) - RACER: Rational Artificial Intelligence Car-following-model Enhanced by
Reality [51.244807332133696]
本稿では,アダプティブ・クルーズ・コントロール(ACC)運転行動を予測する,最先端の深層学習車追従モデルであるRACERを紹介する。
従来のモデルとは異なり、RACERは実走行の重要な要素であるRDC(Rational Driving Constraints)を効果的に統合している。
RACERはアクセラレーション、ベロシティ、スペーシングといった主要なメトリクスを網羅し、ゼロ違反を登録する。
論文 参考訳(メタデータ) (2023-12-12T06:21:30Z) - Detecting stealthy cyberattacks on adaptive cruise control vehicles: A
machine learning approach [5.036807309572884]
運転行動がわずかに変化しただけで、より汚い攻撃は、ネットワーク全体の混雑、燃料消費、さらにはクラッシュリスクさえも、容易に検出されずに増加させる可能性がある。
本稿では,車両制御コマンドの不正な操作,センサ計測に対する偽データ注入攻撃,DoS攻撃の3種類のサイバー攻撃に対するトラフィックモデルフレームワークを提案する。
車両軌跡データを用いた攻撃をリアルタイムに識別するために,GANに基づく新しい生成逆数ネットワーク(generative adversarial network, GAN)を用いた異常検出モデルを提案する。
論文 参考訳(メタデータ) (2023-10-26T01:22:10Z) - CAT: Closed-loop Adversarial Training for Safe End-to-End Driving [54.60865656161679]
Adversarial Training (CAT) は、自動運転車における安全なエンドツーエンド運転のためのフレームワークである。
Catは、安全クリティカルなシナリオでエージェントを訓練することで、運転エージェントの安全性を継続的に改善することを目的としている。
猫は、訓練中のエージェントに対抗する敵シナリオを効果的に生成できる。
論文 参考訳(メタデータ) (2023-10-19T02:49:31Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - LSTM-based Preceding Vehicle Behaviour Prediction during Aggressive Lane
Change for ACC Application [4.693170687870612]
本稿では,Long Short-Term Memory(LSTM)に基づく適応クルーズ制御(ACC)システムを提案する。
このモデルは、カメラを装備したドローンの助けを借りて、ドイツの高速道路から取得した現実世界の高Dデータセットに基づいて構築されている。
LSTMに基づくシステムは,ANNモデルよりも19.25%精度が高く,MPCモデルよりも5.9%精度が高いことを示す。
論文 参考訳(メタデータ) (2023-05-01T21:33:40Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - Driving-Policy Adaptive Safeguard for Autonomous Vehicles Using
Reinforcement Learning [19.71676985220504]
本稿では,衝突回避戦略とアクティベーション機能を含むDPAS設計を提案する。
運転政策適応型アクティベーション機能は、緊急脅威が検出された場合に、現在の運転方針リスクを動的に評価し、起動する必要がある。
実験の結果は自然発生運転データにより校正され, より多くの介入を伴わずに, 衝突速度を著しく低減することを示す。
論文 参考訳(メタデータ) (2020-12-02T08:01:53Z) - Dirty Road Can Attack: Security of Deep Learning based Automated Lane
Centering under Physical-World Attack [38.3805893581568]
本研究では,物理世界の敵対的攻撃下での最先端のディープラーニングに基づくALCシステムの安全性について検討する。
安全クリティカルな攻撃目標と、新しいドメイン固有の攻撃ベクトル、汚い道路パッチで問題を定式化する。
実世界の走行トレースから80のシナリオを用いて実運用ALCに対する攻撃を評価した。
論文 参考訳(メタデータ) (2020-09-14T19:22:39Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。