論文の概要: Asymmetry Vulnerability and Physical Attacks on Online Map Construction for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2509.06071v1
- Date: Sun, 07 Sep 2025 14:26:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.845693
- Title: Asymmetry Vulnerability and Physical Attacks on Online Map Construction for Autonomous Driving
- Title(参考訳): 自律運転のためのオンライン地図構築における非対称性の脆弱性と身体的攻撃
- Authors: Yang Lou, Haibo Hu, Qun Song, Qian Xu, Yi Zhu, Rui Tan, Wei-Bin Lee, Jianping Wang,
- Abstract要約: 本稿では,オンライン地図構築モデルの系統的脆弱性分析について述べる。
フォークやマージのような非対称なシーンでは、このバイアスはしばしば、モデルが反対側をミラーする直線境界を誤って予測する。
本稿では,オンライン構築マップを操作可能な新たな2段階攻撃フレームワークを提案する。
- 参考スコア(独自算出の注目度): 15.060553970759038
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-definition maps provide precise environmental information essential for prediction and planning in autonomous driving systems. Due to the high cost of labeling and maintenance, recent research has turned to online HD map construction using onboard sensor data, offering wider coverage and more timely updates for autonomous vehicles. However, the robustness of online map construction under adversarial conditions remains underexplored. In this paper, we present a systematic vulnerability analysis of online map construction models, which reveals that these models exhibit an inherent bias toward predicting symmetric road structures. In asymmetric scenes like forks or merges, this bias often causes the model to mistakenly predict a straight boundary that mirrors the opposite side. We demonstrate that this vulnerability persists in the real-world and can be reliably triggered by obstruction or targeted interference. Leveraging this vulnerability, we propose a novel two-stage attack framework capable of manipulating online constructed maps. First, our method identifies vulnerable asymmetric scenes along the victim AV's potential route. Then, we optimize the location and pattern of camera-blinding attacks and adversarial patch attacks. Evaluations on a public AD dataset demonstrate that our attacks can degrade mapping accuracy by up to 9.9%, render up to 44% of targeted routes unreachable, and increase unsafe planned trajectory rates, colliding with real-world road boundaries, by up to 27%. These attacks are also validated on a real-world testbed vehicle. We further analyze root causes of the symmetry bias, attributing them to training data imbalance, model architecture, and map element representation. To the best of our knowledge, this study presents the first vulnerability assessment of online map construction models and introduces the first digital and physical attack against them.
- Abstract(参考訳): 高解像度マップは、自律運転システムの予測と計画に不可欠な正確な環境情報を提供する。
ラベル付けとメンテナンスのコストが高いため、最近の研究は、オンボードセンサーデータを使用したオンラインHDマップ構築に移行し、より広範なカバレッジと、自動運転車のタイムリーなアップデートを提供している。
しかし、敵対的な条件下でのオンライン地図構築の堅牢性はいまだ未定である。
本稿では、オンライン地図構築モデルの系統的脆弱性分析を行い、これらのモデルが対称な道路構造の予測に固有のバイアスを示すことを示した。
フォークやマージのような非対称なシーンでは、このバイアスはしばしば、モデルが反対側をミラーする直線境界を誤って予測する。
この脆弱性は現実世界に留まり、妨害や標的の干渉によって確実に引き起こされることを示す。
この脆弱性を活用して、オンライン構築されたマップを操作できる新しい2段階攻撃フレームワークを提案する。
まず,AVの潜在的な経路に沿って,脆弱な非対称なシーンを同定する。
そして,カメラブラディング攻撃と敵パッチ攻撃の位置とパターンを最適化する。
パブリックADデータセットの評価によると、我々の攻撃はマッピングの精度を最大9.9%低下させ、ターゲットルートの44%を到達不能にし、計画された計画軌道速度を向上し、現実世界の道路境界と衝突し、最大27%の精度でマッピングの精度を低下させることができる。
これらの攻撃は、現実世界のテストベッド車両でも検証される。
さらに、対称性バイアスの根本原因を分析し、データ不均衡、モデルアーキテクチャ、マップ要素表現の訓練に寄与する。
そこで本研究では,オンライン地図構築モデルの最初の脆弱性評価を行い,それらに対する最初のディジタルおよび物理的攻撃を提案する。
関連論文リスト
- Delving into Mapping Uncertainty for Mapless Trajectory Prediction [41.70949328930293]
自動運転の最近の進歩は、地図のないアプローチに向かっている。
高精細(HD)マップは、センサーデータから直接オンラインで生成され、高価なラベリングとメンテナンスの必要性が軽減される。
本研究では,地図の不確実性が軌道予測に最も影響を与える運転シナリオを解析する。
本稿では,地図の不確かさを軌跡予測に適応的に組み込む新しいプロプライオセプティブシナリオゲーティングを提案する。
論文 参考訳(メタデータ) (2025-07-24T15:13:11Z) - Cluster-Aware Attacks on Graph Watermarks [50.19105800063768]
本稿では,コミュニティ誘導型修正を回避できるクラスタ・アウェア・脅威モデルを提案する。
その結果,クラスタ・アウェア・アタックは,ランダムなベースラインよりも最大80%の精度でアトリビューション精度を低下させることができることがわかった。
グラフコミュニティにまたがる透かしノードを分散する軽量な埋め込み拡張を提案する。
論文 参考訳(メタデータ) (2025-04-24T22:49:28Z) - Your Car Tells Me Where You Drove: A Novel Path Inference Attack via CAN Bus and OBD-II Data [57.22545280370174]
On Path Diagnostic - Intrusion & Inference (OPD-II) は物理カーモデルとマップマッチングアルゴリズムを利用した新しい経路推論攻撃である。
我々は4台の異なる車両と41トラックの道路および交通シナリオに対する攻撃を実行した。
論文 参考訳(メタデータ) (2024-06-30T04:21:46Z) - A First Physical-World Trajectory Prediction Attack via LiDAR-induced Deceptions in Autonomous Driving [23.08193005790747]
既存の攻撃は、被害者AVの予測モデルを損なう。
単点攻撃を実現するための新たな2段階攻撃フレームワークを提案する。
我々の攻撃は、最大63%の衝突率と、被害者AVの様々な有害反応を引き起こす。
論文 参考訳(メタデータ) (2024-06-17T16:26:00Z) - Hacking Predictors Means Hacking Cars: Using Sensitivity Analysis to Identify Trajectory Prediction Vulnerabilities for Autonomous Driving Security [1.949927790632678]
本稿では,2つの軌道予測モデルである Trajectron++ と AgentFormer の感度解析を行う。
この分析により、全ての入力の間に、両方のモデルに対する摂動感度のほぼ全ては、最新の位置と速度状態にしか属さないことが明らかとなった。
さらに、状態履歴の摂動に支配的な感度があるにもかかわらず、検出不能な画像マップ摂動は、両方のモデルで大きな予測誤差の増加を誘発することを示した。
論文 参考訳(メタデータ) (2024-01-18T18:47:29Z) - Adversarial Backdoor Attack by Naturalistic Data Poisoning on Trajectory
Prediction in Autonomous Driving [18.72382517467458]
本稿では,軌道予測モデルに対する新たな逆バックドア攻撃を提案する。
我々の攻撃は、自然主義的、従って、新しい2段階のアプローチで作られた毒のサンプルを盗むことによって、訓練時に被害者に影響を及ぼす。
提案手法は,予測モデルの性能を著しく損なうおそれがあり,攻撃効果が高いことを示す。
論文 参考訳(メタデータ) (2023-06-27T19:15:06Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Backdoor Attacks on the DNN Interpretation System [16.587968446342995]
ディープニューラルネットワーク(DNN)の内部動作を理解するためには、解釈可能性が不可欠である
我々は,入射トリガのみの入力画像に対して,ネットワークが生成するサリエンシマップを変更するバックドアアタックを設計する。
非信頼なソースによって開発されたディープラーニングモデルをデプロイする場合、当社の攻撃は深刻なセキュリティ上の脅威となる。
論文 参考訳(メタデータ) (2020-11-21T01:54:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。