論文の概要: Safety Interventions against Adversarial Patches in an Open-Source Driver Assistance System
- arxiv url: http://arxiv.org/abs/2504.18990v1
- Date: Sat, 26 Apr 2025 18:28:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.078493
- Title: Safety Interventions against Adversarial Patches in an Open-Source Driver Assistance System
- Title(参考訳): オープンソースドライバ支援システムにおける敵パッチに対する安全対策
- Authors: Cheng Chen, Grant Xiao, Daehyun Lee, Lishan Yang, Evgenia Smirni, Homa Alemzadeh, Xugui Zhou,
- Abstract要約: 認識入力を標的とする安全クリティカルアタックに対して,広く使用されているADASのレジリエンスを評価する。
様々な安全機構をシミュレートして、攻撃軽減効果とADASレジリエンスの強化効果を評価する。
- 参考スコア(独自算出の注目度): 5.685434934401208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Drivers are becoming increasingly reliant on advanced driver assistance systems (ADAS) as autonomous driving technology becomes more popular and developed with advanced safety features to enhance road safety. However, the increasing complexity of the ADAS makes autonomous vehicles (AVs) more exposed to attacks and accidental faults. In this paper, we evaluate the resilience of a widely used ADAS against safety-critical attacks that target perception inputs. Various safety mechanisms are simulated to assess their impact on mitigating attacks and enhancing ADAS resilience. Experimental results highlight the importance of timely intervention by human drivers and automated safety mechanisms in preventing accidents in both driving and lateral directions and the need to resolve conflicts among safety interventions to enhance system resilience and reliability.
- Abstract(参考訳): 自動運転技術がより普及し、道路安全を高めるための高度な安全機能を備えた開発が進むにつれて、ドライバーは先進運転支援システム(ADAS)にますます依存するようになった。
しかし、ADASの複雑さが増すにつれ、自動運転車(AV)は攻撃や偶発的故障に曝されやすくなっている。
本稿では,認識入力を標的とする安全クリティカルアタックに対して,広く使用されているADASのレジリエンスを評価する。
様々な安全メカニズムをシミュレートして、攻撃の緩和とADASレジリエンスの強化効果を評価する。
実験結果は、運転者によるタイムリーな介入の重要性と、運転と横方向の両方の事故防止における自動安全メカニズム、およびシステムのレジリエンスと信頼性を高めるための安全介入間の紛争を解決する必要性を強調した。
関連論文リスト
- AED: Automatic Discovery of Effective and Diverse Vulnerabilities for Autonomous Driving Policy with Large Language Models [7.923448458349885]
本稿では,大規模言語モデル(LLM)を用いて,自律運転政策における効果的かつ多様な脆弱性を自動的に発見するフレームワークを提案する。
実験によると、AEDは専門家が設計した報酬と比較して、幅広い脆弱性と攻撃の成功率を達成する。
論文 参考訳(メタデータ) (2025-03-24T14:59:17Z) - CRASH: Challenging Reinforcement-Learning Based Adversarial Scenarios For Safety Hardening [16.305837225117607]
本稿では, CRASH - Challenging Reinforcement-learning based Adversarial scenarios for Safety Hardeningを紹介する。
第1のCRASHは、Ego車両との衝突を自動的に誘導するために、AVシミュレータ内のNon Player Character(NPC)エージェントを制御することができる。
我々はまた、敵エージェントに対する改善シナリオをシミュレートすることで、運動プランナーを反復的に洗練する安全硬化という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-26T00:00:27Z) - A Survey on Adversarial Robustness of LiDAR-based Machine Learning Perception in Autonomous Vehicles [0.0]
この調査は、AML(Adversarial Machine Learning)と自律システムの交差点に焦点を当てている。
我々は、脅威の風景を包括的に探求し、センサーに対するサイバー攻撃と敵の摂動を包含する。
本稿では、敵の脅威に対する自律運転システムの安全性確保における課題と今後の課題を簡潔に概説する。
論文 参考訳(メタデータ) (2024-11-21T01:26:52Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Physical Backdoor Attack can Jeopardize Driving with Vision-Large-Language Models [53.701148276912406]
Vision-Large-Language-models (VLMs) は自動運転において大きな応用可能性を持っている。
BadVLMDriverは、物理的オブジェクトを使用して実際に起動できる自動運転のためのVLMに対する最初のバックドア攻撃である。
BadVLMDriverは、赤い風船を持った歩行者に突如、加速を誘導する攻撃の成功率を92%達成する。
論文 参考訳(メタデータ) (2024-04-19T14:40:38Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Runtime Stealthy Perception Attacks against DNN-based Adaptive Cruise Control Systems [8.561553195784017]
本稿では,実行時認識攻撃下での深層ニューラルネットワークを用いたACCシステムのセキュリティ評価を行う。
攻撃を誘発する最も重要な時間を選択するための文脈認識戦略を提案する。
提案攻撃の有効性を,実車,公用運転データセット,現実的なシミュレーションプラットフォームを用いて評価した。
論文 参考訳(メタデータ) (2023-07-18T03:12:03Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - A Review of Autonomous Road Vehicle Integrated Approaches to an
Emergency Obstacle Avoidance Maneuver [0.0]
本原稿は緊急障害物回避操作(EOAM)に不可欠なシステムに焦点を当てている。
高速道路での走行のニュアンスを考慮しつつ、関連する各システムの最先端を識別する。
論文 参考訳(メタデータ) (2021-05-20T01:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。