論文の概要: Failure Analysis of Safety Controllers in Autonomous Vehicles Under Object-Based LiDAR Attacks
- arxiv url: http://arxiv.org/abs/2512.22244v1
- Date: Tue, 23 Dec 2025 22:05:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:29.927386
- Title: Failure Analysis of Safety Controllers in Autonomous Vehicles Under Object-Based LiDAR Attacks
- Title(参考訳): オブジェクトベースLiDAR攻撃による自動運転車の安全制御系の故障解析
- Authors: Daniyal Ganiuly, Nurzhau Bolatbek, Assel Smaiyl,
- Abstract要約: 本稿では,高速道路走行シナリオにおけるオブジェクトベースLiDAR攻撃時の安全制御装置の系統的故障解析について述べる。
その結果、LiDAR誘導の物体幻覚は、たとえ短い期間であっても、安全でないブレーキ、実際の危険に対する遅延反応、不安定な制御行動を引き起こすことが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous vehicles rely on LiDAR based perception to support safety critical control functions such as adaptive cruise control and automatic emergency braking. While previous research has shown that LiDAR perception can be manipulated through object based spoofing and injection attacks, the impact of such attacks on vehicle safety controllers is still not well understood. This paper presents a systematic failure analysis of longitudinal safety controllers under object based LiDAR attacks in highway driving scenarios. The study focuses on realistic cut in and car following situations in which adversarial objects introduce persistent perception errors without directly modifying vehicle control software. A high fidelity simulation framework integrating LiDAR perception, object tracking, and closed loop vehicle control is used to evaluate how false and displaced object detections propagate through the perception planning and control pipeline. The results demonstrate that even short duration LiDAR induced object hallucinations can trigger unsafe braking, delayed responses to real hazards, and unstable control behavior. In cut in scenarios, a clear increase in unsafe deceleration events and time to collision violations is observed when compared to benign conditions, despite identical controller parameters. The analysis further shows that controller failures are more strongly influenced by the temporal consistency of spoofed objects than by spatial inaccuracies alone. These findings reveal a critical gap between perception robustness and control level safety guarantees in autonomous driving systems. By explicitly characterizing safety controller failure modes under adversarial perception, this work provides practical insights for the design of attack aware safety mechanisms and more resilient control strategies for LiDAR dependent autonomous vehicles.
- Abstract(参考訳): 自律走行車はLiDARに基づく認識に頼り、アダプティブクルーズ制御や自動緊急ブレーキのような安全臨界制御機能をサポートする。
以前の研究では、LiDARの認識はオブジェクトベースのスプーフィングとインジェクションアタックによって操作可能であることが示されているが、そのような攻撃が車両安全コントローラに与える影響はまだよく分かっていない。
本稿では,高速道路走行シナリオにおけるオブジェクトベースLiDAR攻撃時の縦型安全制御装置の系統的故障解析について述べる。
本研究は, 車両制御ソフトウェアを直接修正することなく, 対向物体が持続的知覚誤差を導入し, 現実的なカットインと車追従に焦点をあてる。
LiDAR認識、物体追跡、クローズドループ車両制御を統合した高忠実度シミュレーションフレームワークを用いて、認識計画と制御パイプラインを介して、偽物や変位物の検出がどのように伝播するかを評価する。
その結果、LiDAR誘導の物体幻覚は、たとえ短い期間であっても、安全でないブレーキ、実際の危険に対する遅延反応、不安定な制御行動を引き起こすことが示されている。
シナリオのカットでは、同一の制御パラメータにもかかわらず、安全でない減速現象と衝突時間の増加が良質な条件と比較して明らかである。
さらに, 制御故障は空間的不正確性のみによるよりも, 密閉物体の時間的整合性に強く影響されることが示唆された。
これらの結果から,自律運転システムにおける認識の堅牢性と制御レベルの安全保証の間には,重大なギャップがあることが示唆された。
本研究は, 対向認識下での安全制御装置の故障モードを明示的に特徴付けることにより, 攻撃意識型安全機構の設計およびLiDAR依存型自動運転車のより弾力性の高い制御戦略に関する実用的な知見を提供する。
関連論文リスト
- Beyond Prompt Engineering: Robust Behavior Control in LLMs via Steering Target Atoms [71.85633762642125]
モデルにおける膨大な数のパラメータは、しばしば高度に絡み合った内部表現をもたらす。
最近の研究は、スパースオートエンコーダ(SAE)を用いて、ステアリングのための高次元空間における知識を歪めている。
本研究では,非絡み合った知識コンポーネントを分離・操作し,安全性を高める手法であるステアリングターゲット原子(STA)を提案する。
論文 参考訳(メタデータ) (2025-05-23T17:59:18Z) - D4+: Emergent Adversarial Driving Maneuvers with Approximate Functional Optimization [3.763470738887407]
我々は、自動運転車と相互作用する悪意のあるドライバーの影響を特定するために、形式的な手法でシナリオベースのフレームワークを実装した。
われわれの結果は、悪質なドライバーが現代の車両の自律的機能を利用するのを防ぐ安全な運転行動の範囲をデザイナーが特定するのに役立つ。
論文 参考訳(メタデータ) (2025-05-20T05:22:03Z) - AttentionGuard: Transformer-based Misbehavior Detection for Secure Vehicular Platoons [0.0]
車両小隊は、認証されたインサイダーによる高度なファルシフィケーション攻撃に対して脆弱である。
本稿では,誤動作検出のためのトランスフォーマーベースのフレームワークであるAttentionGuardを紹介する。
我々は,AttentionGuardが攻撃検出において最大0.95F1スコアを達成することを示す。
論文 参考訳(メタデータ) (2025-05-15T13:24:09Z) - Natural Reflection Backdoor Attack on Vision Language Model for Autonomous Driving [55.96227460521096]
視覚言語モデル(VLM)は推論能力を高めるために自律運転システムに統合されている。
本稿では,自律運転シナリオにおけるVLMシステムを対象とした自然反射型バックドアアタックを提案する。
我々の発見は、自動運転の厳しいリアルタイム要求を生かした、新たなタイプの攻撃を発見しました。
論文 参考訳(メタデータ) (2025-05-09T20:28:17Z) - Rigorous Simulation-based Testing for Autonomous Driving Systems -- Targeting the Achilles' Heel of Four Open Autopilots [6.229766691427486]
本稿では,シナリオを単純なものに分割した厳密なテスト手法を提案する。
クリティカルな状況において、車両をテスト対象とするクリティカルな構成のテストケースを生成します。
テストケースでは、Apollo、Autoware、CarlaとLGSVLのオートパイロットに重大な欠陥が見られる。
論文 参考訳(メタデータ) (2024-05-27T08:06:21Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Runtime Stealthy Perception Attacks against DNN-based Adaptive Cruise Control Systems [8.561553195784017]
本稿では,実行時認識攻撃下での深層ニューラルネットワークを用いたACCシステムのセキュリティ評価を行う。
攻撃を誘発する最も重要な時間を選択するための文脈認識戦略を提案する。
提案攻撃の有効性を,実車,公用運転データセット,現実的なシミュレーションプラットフォームを用いて評価した。
論文 参考訳(メタデータ) (2023-07-18T03:12:03Z) - Spatial-Temporal Anomaly Detection for Sensor Attacks in Autonomous
Vehicles [1.7188280334580195]
飛行時間(ToF)距離測定装置は、スプーフィング、トリガー、偽データインジェクション攻撃に対して脆弱である。
残差空間検出器と時間に基づく予測変化検出を組み込んだ時空間異常検出モデルtextitSTAnDSを提案する。
論文 参考訳(メタデータ) (2022-12-15T12:21:27Z) - Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving [100.57791628642624]
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
論文 参考訳(メタデータ) (2022-03-04T16:14:33Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。