論文の概要: SoK: How Sensor Attacks Disrupt Autonomous Vehicles: An End-to-end Analysis, Challenges, and Missed Threats
- arxiv url: http://arxiv.org/abs/2509.11120v2
- Date: Tue, 16 Sep 2025 04:55:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 11:35:27.000313
- Title: SoK: How Sensor Attacks Disrupt Autonomous Vehicles: An End-to-end Analysis, Challenges, and Missed Threats
- Title(参考訳): SoK:センサーが破壊的な自動運転車を攻撃する方法: エンドツーエンドの分析、チャレンジ、そして失敗の脅威
- Authors: Qingzhao Zhang, Shaocheng Luo, Z. Morley Mao, Miroslav Pajic, Michael K. Reiter,
- Abstract要約: 自動運転車、ロボット地上車両、ドローンは、安全で信頼性の高い運転を保証するために複雑なセンサーパイプラインに依存している。
これらの安全クリティカルなシステムは、その性能とミッションの成功を損なう可能性のある敵のセンサー攻撃に弱いままである。
本稿では,プラットフォーム間の自律走行車両センサ攻撃,センサのモダリティ,攻撃方法に関する包括的調査を行う。
- 参考スコア(独自算出の注目度): 26.103019161326795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous vehicles, including self-driving cars, robotic ground vehicles, and drones, rely on complex sensor pipelines to ensure safe and reliable operation. However, these safety-critical systems remain vulnerable to adversarial sensor attacks that can compromise their performance and mission success. While extensive research has demonstrated various sensor attack techniques, critical gaps remain in understanding their feasibility in real-world, end-to-end systems. This gap largely stems from the lack of a systematic perspective on how sensor errors propagate through interconnected modules in autonomous systems when autonomous vehicles interact with the physical world. To bridge this gap, we present a comprehensive survey of autonomous vehicle sensor attacks across platforms, sensor modalities, and attack methods. Central to our analysis is the System Error Propagation Graph (SEPG), a structured demonstration tool that illustrates how sensor attacks propagate through system pipelines, exposing the conditions and dependencies that determine attack feasibility. With the aid of SEPG, our study distills seven key findings that highlight the feasibility challenges of sensor attacks and uncovers eleven previously overlooked attack vectors exploiting inter-module interactions, several of which we validate through proof-of-concept experiments. Additionally, we demonstrate how large language models (LLMs) can automate aspects of SEPG construction and cross-validate expert analysis, showcasing the promise of AI-assisted security evaluation.
- Abstract(参考訳): 自動運転車、ロボット地上車両、ドローンを含む自動運転車は、安全で信頼性の高い運転を保証するために複雑なセンサーパイプラインに依存している。
しかし、これらの安全クリティカルなシステムは、その性能とミッションの成功を損なう可能性のある敵のセンサー攻撃に弱いままである。
広範囲にわたる研究が様々なセンサー・アタック・テクニックを実証しているが、現実のエンド・ツー・エンド・エンド・システムにおけるその実現可能性を理解する上で重要なギャップは依然として残っている。
このギャップは、自動運転車が物理的世界と相互作用するとき、センサーエラーが自律システムの相互接続モジュールを通してどのように伝播するかという体系的な視点の欠如に大きく起因している。
このギャップを埋めるために、プラットフォーム全体にわたる自動運転車のセンサー攻撃、センサーのモダリティ、攻撃方法の総合的な調査を行う。
私たちの分析の中心は、システムエラー伝播グラフ(SEPG)です。これは、システムパイプラインを通じてセンサー攻撃がどのように伝播し、攻撃実現可能性を決定する条件と依存関係を公開するかを示す、構造化されたデモツールです。
SEPGを用いて,センサ攻撃の可能性を明らかにする7つの重要な知見を抽出し,モジュール間相互作用を利用した従来見過ごされていた11のアタックベクターを探索し,そのいくつかを概念実証実験により検証した。
さらに,大規模言語モデル(LLM)がSEPG構築とクロスバリデート専門家分析の側面を自動化し,AIによるセキュリティ評価の可能性を実証する。
関連論文リスト
- ANNIE: Be Careful of Your Robots [48.89876809734855]
エンボディドAIシステムに対する敵の安全攻撃に関する最初の体系的研究について述べる。
すべての安全カテゴリーで攻撃の成功率は50%を超えている。
結果は、実証済みのAIシステムにおいて、これまで未調査だったが、非常に連続的な攻撃面を露呈する。
論文 参考訳(メタデータ) (2025-09-03T15:00:28Z) - AI-Powered Anomaly Detection with Blockchain for Real-Time Security and Reliability in Autonomous Vehicles [1.1797787239802762]
我々は、リアルタイム異常検出のための人工知能(AI)のパワーとブロックチェーン技術を組み合わせて、悪意のあるアクティビティを検出して防止する新しいフレームワークを開発する。
このフレームワークでは、センサデータと異常アラートをブロックチェーン台帳にセキュアに格納する分散プラットフォームを使用して、データの不正性と信頼性を保証している。
これにより、AVシステムは、サイバースペースとハードウェアコンポーネントの両方の障害からの攻撃に対してより耐性がある。
論文 参考訳(メタデータ) (2025-05-10T12:53:28Z) - Towards Robust and Secure Embodied AI: A Survey on Vulnerabilities and Attacks [22.154001025679896]
ロボットや自動運転車を含む身体的AIシステムは、現実のアプリケーションにますます統合されている。
これらの脆弱性は、センサーのスプーフィング、敵攻撃、タスクおよび動作計画における失敗を通じて現れる。
論文 参考訳(メタデータ) (2025-02-18T03:38:07Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - CANEDERLI: On The Impact of Adversarial Training and Transferability on CAN Intrusion Detection Systems [17.351539765989433]
車両と外部ネットワークの統合が拡大し、コントロールエリアネットワーク(CAN)の内部バスをターゲットにした攻撃が急増した。
対策として,様々な侵入検知システム(IDS)が文献で提案されている。
これらのシステムのほとんどは、機械学習(ML)やディープラーニング(DL)モデルのような、データ駆動のアプローチに依存しています。
本稿では,CANベースのIDSをセキュアにするための新しいフレームワークであるCANEDERLIを提案する。
論文 参考訳(メタデータ) (2024-04-06T14:54:11Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。