論文の概要: Is Your Autonomous Vehicle Safe? Understanding the Threat of Electromagnetic Signal Injection Attacks on Traffic Scene Perception
- arxiv url: http://arxiv.org/abs/2501.05239v1
- Date: Thu, 09 Jan 2025 13:44:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-10 13:59:30.233093
- Title: Is Your Autonomous Vehicle Safe? Understanding the Threat of Electromagnetic Signal Injection Attacks on Traffic Scene Perception
- Title(参考訳): 自動運転車は安全か? 交通場面における電磁誘導攻撃の脅威を理解する
- Authors: Wenhao Liao, Sineng Yan, Youqian Zhang, Xinwei Zhai, Yuanyuan Wang, Eugene Yujun Fu,
- Abstract要約: 電磁信号注入攻撃(ESIA)は、自動運転車が撮影した画像を歪めることができる。
我々の研究は、異なるモデル underA のパフォーマンスを分析し、攻撃に対する脆弱性を明らかにします。
我々の研究は、より堅牢なAIモデルの開発を促進することを目的として、包括的なシミュレーションと評価のフレームワークを提供する。
- 参考スコア(独自算出の注目度): 3.8225514249914734
- License:
- Abstract: Autonomous vehicles rely on camera-based perception systems to comprehend their driving environment and make crucial decisions, thereby ensuring vehicles to steer safely. However, a significant threat known as Electromagnetic Signal Injection Attacks (ESIA) can distort the images captured by these cameras, leading to incorrect AI decisions and potentially compromising the safety of autonomous vehicles. Despite the serious implications of ESIA, there is limited understanding of its impacts on the robustness of AI models across various and complex driving scenarios. To address this gap, our research analyzes the performance of different models under ESIA, revealing their vulnerabilities to the attacks. Moreover, due to the challenges in obtaining real-world attack data, we develop a novel ESIA simulation method and generate a simulated attack dataset for different driving scenarios. Our research provides a comprehensive simulation and evaluation framework, aiming to enhance the development of more robust AI models and secure intelligent systems, ultimately contributing to the advancement of safer and more reliable technology across various fields.
- Abstract(参考訳): 自動運転車は、走行環境を理解し、決定を下すためにカメラベースの認識システムに依存している。
しかし、ESIA(Electromagnetic Signal Injection Attacks)と呼ばれる重大な脅威は、これらのカメラが捉えた画像を歪め、誤ったAI決定と、自動運転車の安全性を損なう可能性がある。
ESIAの深刻な影響にもかかわらず、AIモデルの堅牢性に対する影響は、さまざまな複雑な運転シナリオで限定的に理解されている。
このギャップに対処するため、ESIAの下で異なるモデルの性能を分析し、攻撃に対する脆弱性を明らかにする。
さらに、実世界の攻撃データを取得する上での課題から、新しいESIAシミュレーション手法を開発し、異なる運転シナリオを対象としたシミュレーション攻撃データセットを生成する。
我々の研究は総合的なシミュレーションと評価のフレームワークを提供し、より堅牢なAIモデルとセキュアなインテリジェントシステムの開発を強化することを目的としており、最終的には様々な分野におけるより安全で信頼性の高い技術の進歩に貢献している。
関連論文リスト
- Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - A Survey on Adversarial Robustness of LiDAR-based Machine Learning Perception in Autonomous Vehicles [0.0]
この調査は、AML(Adversarial Machine Learning)と自律システムの交差点に焦点を当てている。
我々は、脅威の風景を包括的に探求し、センサーに対するサイバー攻撃と敵の摂動を包含する。
本稿では、敵の脅威に対する自律運転システムの安全性確保における課題と今後の課題を簡潔に概説する。
論文 参考訳(メタデータ) (2024-11-21T01:26:52Z) - Attack End-to-End Autonomous Driving through Module-Wise Noise [4.281151553151594]
本稿では,モジュラー・エンド・エンド・エンド・エンドの自律運転モデルに関する総合的対角セキュリティ研究を行う。
モデル推論プロセスにおける潜在的な脆弱性を徹底的に検討し、モジュールワイドノイズ注入によるユニバーサルアタックスキームを設計する。
本研究では,フルスタック自動運転モデルを用いた大規模実験を行い,攻撃手法が従来の攻撃方法より優れていることを示す。
論文 参考訳(メタデータ) (2024-09-12T02:19:16Z) - Modeling Electromagnetic Signal Injection Attacks on Camera-based Smart Systems: Applications and Mitigation [18.909937495767313]
電磁波は安全またはセキュリティクリティカルなシステムに脅威をもたらす。
このような攻撃により、攻撃者はリモートで画像を操作でき、誤ったAI判断につながる。
本研究は,攻撃に対する堅牢性を向上させるための対人訓練に関するパイロット研究である。
論文 参考訳(メタデータ) (2024-08-09T15:33:28Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Generative AI-empowered Simulation for Autonomous Driving in Vehicular
Mixed Reality Metaverses [130.15554653948897]
車両混合現実(MR)メタバースでは、物理的実体と仮想実体の間の距離を克服することができる。
現実的なデータ収集と物理世界からの融合による大規模交通・運転シミュレーションは困難かつコストがかかる。
生成AIを利用して、無制限の条件付きトラフィックを合成し、シミュレーションでデータを駆動する自律運転アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-16T16:54:10Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - Deep Learning-Based Autonomous Driving Systems: A Survey of Attacks and
Defenses [13.161104978510943]
この調査は、自動運転システムを危うくする可能性のあるさまざまな攻撃の詳細な分析を提供する。
さまざまなディープラーニングモデルに対する敵意攻撃と、物理的およびサイバー的コンテキストにおける攻撃をカバーする。
深層学習に基づく自動運転の安全性を向上させるために、いくつかの有望な研究方向が提案されている。
論文 参考訳(メタデータ) (2021-04-05T06:31:47Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。