論文の概要: Mitigation of Camouflaged Adversarial Attacks in Autonomous Vehicles--A Case Study Using CARLA Simulator
- arxiv url: http://arxiv.org/abs/2502.05208v1
- Date: Mon, 03 Feb 2025 17:30:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-16 04:07:16.339466
- Title: Mitigation of Camouflaged Adversarial Attacks in Autonomous Vehicles--A Case Study Using CARLA Simulator
- Title(参考訳): 自律走行車におけるカモフラージュ対向攻撃の軽減-CARLAシミュレータを用いたケーススタディ
- Authors: Yago Romano Martinez, Brady Carter, Abhijeet Solanki, Wesam Al Amiri, Syed Rafay Hasan, Terry N. Guo,
- Abstract要約: AVにおける交通信号認識を目的としたカメラカモフラージュ対向攻撃を開発した。
その結果、このような攻撃は停止標識に対する自動ブレーキ応答を遅らせる可能性があり、潜在的な安全上の問題を引き起こす可能性が示唆された。
提案手法は、他のエンドツーエンドの自律サイバー物理システムに適用可能である。
- 参考スコア(独自算出の注目度): 3.1006820631993515
- License:
- Abstract: Autonomous vehicles (AVs) rely heavily on cameras and artificial intelligence (AI) to make safe and accurate driving decisions. However, since AI is the core enabling technology, this raises serious cyber threats that hinder the large-scale adoption of AVs. Therefore, it becomes crucial to analyze the resilience of AV security systems against sophisticated attacks that manipulate camera inputs, deceiving AI models. In this paper, we develop camera-camouflaged adversarial attacks targeting traffic sign recognition (TSR) in AVs. Specifically, if the attack is initiated by modifying the texture of a stop sign to fool the AV's object detection system, thereby affecting the AV actuators. The attack's effectiveness is tested using the CARLA AV simulator and the results show that such an attack can delay the auto-braking response to the stop sign, resulting in potential safety issues. We conduct extensive experiments under various conditions, confirming that our new attack is effective and robust. Additionally, we address the attack by presenting mitigation strategies. The proposed attack and defense methods are applicable to other end-to-end trained autonomous cyber-physical systems.
- Abstract(参考訳): 自動運転車(AV)は安全かつ正確な運転決定を行うために、カメラと人工知能(AI)に大きく依存している。
しかし、AIがテクノロジーのコアとなるため、これは大規模なAVの採用を妨げる深刻なサイバー脅威を引き起こす。
したがって、カメラ入力を操作する高度な攻撃に対して、AVセキュリティシステムのレジリエンスを分析することが重要である。
本稿では,AVにおける交通信号認識(TSR)を対象とするカメラ・カモフラージュ対向攻撃を提案する。
具体的には、停止標識のテクスチャを変更して攻撃を開始すると、AVの物体検出システムを騙し、それによってAVアクチュエータに影響を及ぼす。
攻撃の有効性は、CARLA AVシミュレータを用いて検証され、その結果、そのような攻撃が停止標識に対する自動ブレーキ応答を遅らせる可能性を示し、潜在的な安全性の問題が生じる。
我々は様々な条件下で広範囲にわたる実験を行い、新たな攻撃が効果的で堅牢であることを確認した。
さらに、この攻撃には緩和戦略を提示することで対処する。
提案手法は、他のエンドツーエンドの自律サイバー物理システムに適用可能である。
関連論文リスト
- Is Your Autonomous Vehicle Safe? Understanding the Threat of Electromagnetic Signal Injection Attacks on Traffic Scene Perception [3.8225514249914734]
電磁信号注入攻撃(ESIA)は、自動運転車が撮影した画像を歪めることができる。
我々の研究は、異なるモデル underA のパフォーマンスを分析し、攻撃に対する脆弱性を明らかにします。
我々の研究は、より堅牢なAIモデルの開発を促進することを目的として、包括的なシミュレーションと評価のフレームワークを提供する。
論文 参考訳(メタデータ) (2025-01-09T13:44:42Z) - Modeling Electromagnetic Signal Injection Attacks on Camera-based Smart Systems: Applications and Mitigation [18.909937495767313]
電磁波は安全またはセキュリティクリティカルなシステムに脅威をもたらす。
このような攻撃により、攻撃者はリモートで画像を操作でき、誤ったAI判断につながる。
本研究は,攻撃に対する堅牢性を向上させるための対人訓練に関するパイロット研究である。
論文 参考訳(メタデータ) (2024-08-09T15:33:28Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Physical Backdoor Attack can Jeopardize Driving with Vision-Large-Language Models [53.701148276912406]
Vision-Large-Language-models (VLMs) は自動運転において大きな応用可能性を持っている。
BadVLMDriverは、物理的オブジェクトを使用して実際に起動できる自動運転のためのVLMに対する最初のバックドア攻撃である。
BadVLMDriverは、赤い風船を持った歩行者に突如、加速を誘導する攻撃の成功率を92%達成する。
論文 参考訳(メタデータ) (2024-04-19T14:40:38Z) - Detecting subtle cyberattacks on adaptive cruise control vehicles: A machine learning approach [4.610653122777888]
運転行動がわずかに変化しただけで、より汚い攻撃は、ネットワーク全体の混雑、燃料消費、さらにはクラッシュリスクさえも、容易に検出されずに増加させる可能性がある。
本稿では,車両制御コマンドの不正な操作,センサ計測に対する偽データ注入攻撃,DoS攻撃の3種類のサイバー攻撃に対するトラフィックモデルフレームワークを提案する。
車両軌跡データを用いた攻撃をリアルタイムに識別するために,GANに基づく新しい生成逆数ネットワーク(generative adversarial network, GAN)を用いた異常検出モデルを提案する。
論文 参考訳(メタデータ) (2023-10-26T01:22:10Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Dirty Road Can Attack: Security of Deep Learning based Automated Lane
Centering under Physical-World Attack [38.3805893581568]
本研究では,物理世界の敵対的攻撃下での最先端のディープラーニングに基づくALCシステムの安全性について検討する。
安全クリティカルな攻撃目標と、新しいドメイン固有の攻撃ベクトル、汚い道路パッチで問題を定式化する。
実世界の走行トレースから80のシナリオを用いて実運用ALCに対する攻撃を評価した。
論文 参考訳(メタデータ) (2020-09-14T19:22:39Z) - ML-driven Malware that Targets AV Safety [5.675697880379048]
我々は、攻撃モデル、スマートマルウェアの形で攻撃を展開する方法、およびプロダクショングレードの自動運転ソフトウェアに対するその影響を実験的に評価する。
攻撃開始までの時間間隔を決定することは、高い成功率で安全上の危険を引き起こすために極めて重要である。
例えば、スマートマルウェアは、ランダムな攻撃よりも33倍の緊急ブレーキを引き起こし、運転シミュレーションの52.6%で事故が発生した。
論文 参考訳(メタデータ) (2020-04-24T22:29:59Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。