論文の概要: AD$^2$: Analysis and Detection of Adversarial Threats in Visual Perception for End-to-End Autonomous Driving Systems
- arxiv url: http://arxiv.org/abs/2602.10160v1
- Date: Tue, 10 Feb 2026 05:13:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.203241
- Title: AD$^2$: Analysis and Detection of Adversarial Threats in Visual Perception for End-to-End Autonomous Driving Systems
- Title(参考訳): AD$^2$: エンド・ツー・エンド自律運転システムにおける視覚知覚における敵対的脅威の分析と検出
- Authors: Ishan Sahu, Somnath Hazra, Somak Aditya, Soumyajit Dey,
- Abstract要約: 本研究では,CARLAにおけるブラックボックスの敵対的脅威モデルの下で,最先端の自律走行エージェントの閉ループ評価を行う。
視覚知覚パイプラインにおける3つの代表的な攻撃ベクトルについて考察する: (i) 音波によって誘発される物理ベースのぼかし攻撃、 (ii) 捉えた画像を歪ませる電磁干渉攻撃、 (iii) ゴーストオブジェクトを画像上に慎重に構築した有界摂動として付加するデジタル攻撃。
TransfuserとInterfuserという2つの高度なエージェントの実験では、そのような攻撃に対する深刻な脆弱性が明らかとなり、運転スコアは最大99%低下した。
- 参考スコア(独自算出の注目度): 7.505610942484861
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: End-to-end autonomous driving systems have achieved significant progress, yet their adversarial robustness remains largely underexplored. In this work, we conduct a closed-loop evaluation of state-of-the-art autonomous driving agents under black-box adversarial threat models in CARLA. Specifically, we consider three representative attack vectors on the visual perception pipeline: (i) a physics-based blur attack induced by acoustic waves, (ii) an electromagnetic interference attack that distorts captured images, and (iii) a digital attack that adds ghost objects as carefully crafted bounded perturbations on images. Our experiments on two advanced agents, Transfuser and Interfuser, reveal severe vulnerabilities to such attacks, with driving scores dropping by up to 99% in the worst case, raising valid safety concerns. To help mitigate such threats, we further propose a lightweight Attack Detection model for Autonomous Driving systems (AD$^2$) based on attention mechanisms that capture spatial-temporal consistency. Comprehensive experiments across multi-camera inputs on CARLA show that our detector achieves superior detection capability and computational efficiency compared to existing approaches.
- Abstract(参考訳): エンド・ツー・エンドの自動運転システムは大きな進歩を遂げているが、その逆の堅牢性はいまだに未発見のままである。
本研究では,CARLAにおけるブラックボックスの敵対的脅威モデルの下で,最先端の自律走行エージェントの閉ループ評価を行う。
具体的には、視覚知覚パイプライン上の3つの代表的な攻撃ベクトルについて考察する。
一 音波による物理に基づくぼかし攻撃
二 捉えた画像を歪ませる電磁干渉攻撃、及び
三 画像にゴーストオブジェクトを慎重に作って有界な摂動を加えるデジタルアタック。
TransfuserとInterfuserという2つの高度なエージェントの実験では、このような攻撃に対する深刻な脆弱性が明らかとなり、最悪の場合、運転スコアが最大99%低下し、有効な安全上の懸念が生まれました。
このような脅威を緩和するために,空間的時間的一貫性を捉える注意機構に基づく自律運転システム(AD$^2$)の軽量な検出モデルを提案する。
CARLAにおけるマルチカメラ入力の総合的な実験により,我々の検出器は既存の手法に比べて優れた検出能力と計算効率を実現することが示された。
関連論文リスト
- FreezeVLA: Action-Freezing Attacks against Vision-Language-Action Models [124.02734355214325]
Vision-Language-Action(VLA)モデルはロボティクスの急速な進歩を加速している。
敵画像はVLAモデルを「凍結」し、その後の命令を無視する。
FreezeVLAは、min-maxバイレベル最適化を通じて、アクション凍結攻撃を生成し、評価する。
論文 参考訳(メタデータ) (2025-09-24T08:15:28Z) - Temporal Misalignment Attacks against Multimodal Perception in Autonomous Driving [23.83773255227831]
DejaVuは車載ネットワークを利用して、センサストリーム間の遅延を誘導し、微妙な時間的ミスアライメントを生成する攻撃である。
包括的攻撃分析により,センサのタスク特異的な不均衡感が明らかになった。
シングルフレームのLiDAR遅延では、攻撃者は車検出のmAPを最大88.5%削減し、3フレームのカメラ遅延、車滴の多重物体追跡精度(MOTA)を73%削減できる。
論文 参考訳(メタデータ) (2025-07-12T00:44:26Z) - Robustifying 3D Perception via Least-Squares Graphs for Multi-Agent Object Tracking [43.11267507022928]
本稿では,3次元LiDARシーンにおける対向雑音に対する新たな緩和フレームワークを提案する。
我々は最小二乗グラフツールを用いて各検出の遠心点の位置誤差を低減する。
実世界のV2V4Realデータセットに関する広範な評価研究は、提案手法がシングルエージェントとマルチエージェントの両方のトラッキングフレームワークよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2025-07-07T08:41:08Z) - Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - TPatch: A Triggered Physical Adversarial Patch [19.768494127237393]
音響信号によって引き起こされる物理的対向パッチであるTPatchを提案する。
運転者の疑念を避けるため,コンテンツベースカモフラージュ法と攻撃強化法を提案する。
論文 参考訳(メタデータ) (2023-12-30T06:06:01Z) - A Certifiable Security Patch for Object Tracking in Self-Driving Systems
via Historical Deviation Modeling [22.753164675538457]
自動運転車における物体追跡の安全性に関する最初の体系的研究について述べる。
我々は,KF(Kalman Filter)に基づくメインストリームマルチオブジェクトトラッカー(MOT)が,マルチセンサ融合機構が有効であっても安全でないことを証明した。
我々は、KFベースのMOTのための単純かつ効果的なセキュリティパッチを提案し、その中核は、KFの観測と予測に対する焦点のバランスをとるための適応戦略である。
論文 参考訳(メタデータ) (2022-07-18T12:30:24Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。