論文の概要: Experimental Evaluation of Security Attacks on Self-Driving Car Platforms
- arxiv url: http://arxiv.org/abs/2603.14124v1
- Date: Sat, 14 Mar 2026 21:23:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.616014
- Title: Experimental Evaluation of Security Attacks on Self-Driving Car Platforms
- Title(参考訳): 自動運転車プラットフォームにおけるセキュリティ攻撃の実験的評価
- Authors: Viet K. Nguyen, Nathan Lee, Mohammad Husain,
- Abstract要約: 自動運転車のディープラーニングに基づく知覚パイプラインは、敵の操作とネットワーク層破壊の両方に対して脆弱である。
FGSM,PGD,man-in-the-middle (MitM), denial-of-service (DoS), ファントム攻撃の5つの攻撃クラスについて,系統的,オンハードウェア,実験的評価を行った。
我々の分析では、異なる攻撃クラスがこれらの次元にわたって一貫した、分離可能な「フィンガープリント」を生成することが明らかとなった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning-based perception pipelines in autonomous ground vehicles are vulnerable to both adversarial manipulation and network-layer disruption. We present a systematic, on-hardware experimental evaluation of five attack classes: FGSM, PGD, man-in-the-middle (MitM), denial-of-service (DoS), and phantom attacks on low-cost autonomous vehicle platforms (JetRacer and Yahboom). Using a standardized 13-second experimental protocol and comprehensive automated logging, we systematically characterize three dimensions of attack behavior:(i) control deviation, (ii) computational cost, and (iii) runtime responsiveness. Our analysis reveals that distinct attack classes produce consistent and separable "fingerprints" across these dimensions: perception attacks (MitM output manipulation and phantom projection) generate high steering deviation signatures with nominal computational overhead, PGD produces combined steering perturbation and computational load signatures across multiple dimensions, and DoS exhibits frame rate and latency degradation signatures with minimal control-plane perturbation. We demonstrate that our fingerprinting framework generalizes across both digital attacks (adversarial perturbations, network manipulation) and environmental attacks (projected false features), providing a foundation for attack-aware monitoring systems and targeted, signature-based defense mechanisms.
- Abstract(参考訳): 自動運転車のディープラーニングに基づく知覚パイプラインは、敵の操作とネットワーク層破壊の両方に対して脆弱である。
FGSM, PGD, man-in-the-middle (MitM), denial-of-service (DoS), ファントムアタック(JetRacer, Yahboom)の5つの攻撃クラスに対して, 系統的, オンハードウェアな実験的評価を行った。
標準化された13秒の実験プロトコルと総合的な自動ロギングを用いて、攻撃行動の3次元を体系的に特徴づける。
(i)制御偏差
(ii)計算コスト、及び
(iii)実行時の応答性。
認識攻撃(MitM出力操作とファントム投影)は、名目上の計算オーバーヘッドを伴う高い操舵偏差シグネチャを生成し、PGDは複数の次元にわたる操舵摂動と計算負荷シグネチャを合成し、DoSはフレームレートと遅延劣化シグネチャを最小の制御面摂動で表す。
フィンガープリントフレームワークは,デジタル攻撃(敵の摂動,ネットワーク操作)と環境攻撃(疑似特徴)の両方を一般化し,攻撃対応監視システムとターゲット型シグネチャベースの防御機構の基盤となることを実証する。
関連論文リスト
- AD$^2$: Analysis and Detection of Adversarial Threats in Visual Perception for End-to-End Autonomous Driving Systems [7.505610942484861]
本研究では,CARLAにおけるブラックボックスの敵対的脅威モデルの下で,最先端の自律走行エージェントの閉ループ評価を行う。
視覚知覚パイプラインにおける3つの代表的な攻撃ベクトルについて考察する: (i) 音波によって誘発される物理ベースのぼかし攻撃、 (ii) 捉えた画像を歪ませる電磁干渉攻撃、 (iii) ゴーストオブジェクトを画像上に慎重に構築した有界摂動として付加するデジタル攻撃。
TransfuserとInterfuserという2つの高度なエージェントの実験では、そのような攻撃に対する深刻な脆弱性が明らかとなり、運転スコアは最大99%低下した。
論文 参考訳(メタデータ) (2026-02-10T05:13:37Z) - SoK: How Sensor Attacks Disrupt Autonomous Vehicles: An End-to-end Analysis, Challenges, and Missed Threats [26.103019161326795]
自動運転車、ロボット地上車両、ドローンは、安全で信頼性の高い運転を保証するために複雑なセンサーパイプラインに依存している。
これらの安全クリティカルなシステムは、その性能とミッションの成功を損なう可能性のある敵のセンサー攻撃に弱いままである。
本稿では,プラットフォーム間の自律走行車両センサ攻撃,センサのモダリティ,攻撃方法に関する包括的調査を行う。
論文 参考訳(メタデータ) (2025-09-14T06:19:26Z) - CANTXSec: A Deterministic Intrusion Detection and Prevention System for CAN Bus Monitoring ECU Activations [53.036288487863786]
物理ECUアクティベーションに基づく最初の決定論的侵入検知・防止システムであるCANTXSecを提案する。
CANバスの古典的な攻撃を検知・防止し、文献では調査されていない高度な攻撃を検知する。
物理テストベッド上での解法の有効性を実証し,攻撃の両クラスにおいて100%検出精度を達成し,100%のFIAを防止した。
論文 参考訳(メタデータ) (2025-05-14T13:37:07Z) - Defense against Joint Poison and Evasion Attacks: A Case Study of DERMS [2.632261166782093]
IDSの第1の枠組みは, ジョイント中毒や回避攻撃に対して堅牢である。
IEEE-13バスフィードモデルにおける本手法のロバスト性を検証する。
論文 参考訳(メタデータ) (2024-05-05T16:24:30Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - End-to-end Uncertainty-based Mitigation of Adversarial Attacks to
Automated Lane Centering [12.11406399284803]
我々は,認識,計画,制御モジュール全体にわたる敵の攻撃の影響に対処するエンドツーエンドアプローチを提案する。
われわれのアプローチは、敵攻撃の影響を効果的に軽減し、元のOpenPilotよりも55%から90%改善できる。
論文 参考訳(メタデータ) (2021-02-27T22:36:32Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。