論文の概要: DisorientLiDAR: Physical Attacks on LiDAR-based Localization
- arxiv url: http://arxiv.org/abs/2509.12595v1
- Date: Tue, 16 Sep 2025 02:46:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.848271
- Title: DisorientLiDAR: Physical Attacks on LiDAR-based Localization
- Title(参考訳): DisorientLiDAR:LiDARを基盤とした物理攻撃
- Authors: Yizhen Lao, Yu Zhang, Ziting Wang, Chengbo Wang, Yifei Xue, Wanpeng Shao,
- Abstract要約: 本稿では,LiDARをベースとした新たな攻撃フレームワークであるDisLiDARを提案する。
ローカライゼーションモデルをリバースエンジニアリングすることで、敵は重要なキーポイントを識別し、それらを戦略的に取り除くことができる。
攻撃がAutoware自動運転プラットフォームに与える影響を検証する。
- 参考スコア(独自算出の注目度): 8.667709052762294
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models have been shown to be susceptible to adversarial attacks with visually imperceptible perturbations. Even this poses a serious security challenge for the localization of self-driving cars, there has been very little exploration of attack on it, as most of adversarial attacks have been applied to 3D perception. In this work, we propose a novel adversarial attack framework called DisorientLiDAR targeting LiDAR-based localization. By reverse-engineering localization models (e.g., feature extraction networks), adversaries can identify critical keypoints and strategically remove them, thereby disrupting LiDAR-based localization. Our proposal is first evaluated on three state-of-the-art point-cloud registration models (HRegNet, D3Feat, and GeoTransformer) using the KITTI dataset. Experimental results demonstrate that removing regions containing Top-K keypoints significantly degrades their registration accuracy. We further validate the attack's impact on the Autoware autonomous driving platform, where hiding merely a few critical regions induces noticeable localization drift. Finally, we extended our attacks to the physical world by hiding critical regions with near-infrared absorptive materials, thereby successfully replicate the attack effects observed in KITTI data. This step has been closer toward the realistic physical-world attack that demonstrate the veracity and generality of our proposal.
- Abstract(参考訳): 深層学習モデルは、視覚的に知覚できない摂動を伴う敵の攻撃に感受性があることが示されている。
自動運転車のローカライゼーションには深刻なセキュリティ上の課題が伴うが、敵の攻撃のほとんどは3D認識に応用されているため、攻撃に対する調査はほとんど行われていない。
本研究では,LiDAR をベースとした新たな攻撃フレームワーク DisorientLiDAR を提案する。
ローカライゼーションモデル(例えば特徴抽出ネットワーク)をリバースエンジニアリングすることで、敵は重要なキーポイントを識別し、それらを戦略的に除去し、LiDARベースのローカライゼーションを破壊できる。
提案手法は,KITTIデータセットを用いて,最先端の3つのポイントクラウド登録モデル(HRegNet,D3Feat,GeoTransformer)について評価を行った。
実験の結果,Top-Kキーポイントを含む領域の削除は,登録精度を著しく低下させることが示された。
攻撃がAutoware自動運転プラットフォームに与える影響をさらに検証し、少数の重要な領域を隠蔽するだけで、顕著なローカライゼーションドリフトが引き起こされる。
最後に,近赤外吸収物質で重要な領域を隠蔽し,KITTIデータにおける攻撃効果を再現することで,攻撃を物理的世界へ拡張した。
このステップは、我々の提案の正確性と汎用性を示す現実的な物理世界攻撃に近づいた。
関連論文リスト
- Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - Transient Adversarial 3D Projection Attacks on Object Detection in Autonomous Driving [15.516055760190884]
本稿では,自律運転シナリオにおける物体検出を対象とする3Dプロジェクション攻撃を提案する。
本研究は, YOLOv3 と Mask R-CNN の物理環境における攻撃効果を示すものである。
論文 参考訳(メタデータ) (2024-09-25T22:27:11Z) - Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Exorcising ''Wraith'': Protecting LiDAR-based Object Detector in
Automated Driving System from Appearing Attacks [20.38692153553779]
自動駆動システムは、LiDAR点雲から可能な障害物を認識するために、3Dオブジェクト検出器に依存している。
近年の研究では、偽のポイント数点の予測結果において、敵が存在していない車を偽造できることが示されている。
そこで本研究では,LiDARをベースとしたオブジェクト検出装置を並列に動作させる,新しいプラグ・アンド・プレイディフェンスモジュールを提案する。
論文 参考訳(メタデータ) (2023-03-17T02:20:47Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Detecting Localized Adversarial Examples: A Generic Approach using
Critical Region Analysis [19.352676977713966]
本稿では,TintRadarと呼ばれる汎用防衛システムを提案する。
既存の防御ソリューションと比較すると、TaintRadarは高度に局所化された部分攻撃を効果的に捉えることができる。
デジタルと物理の両方の世界において、防衛の有効性と堅牢性を検証するための総合的な実験が実施されている。
論文 参考訳(メタデータ) (2021-02-10T03:31:16Z) - Object Removal Attacks on LiDAR-based 3D Object Detectors [6.263478017242508]
オブジェクト除去攻撃(ORAs)は、3Dオブジェクト検出器を失敗させることを目的としている。
関心領域の摂動点雲に対して、1方向に1つの戻り信号を記録するLiDARのデフォルト設定を利用する。
その結果,この攻撃は一般的な3次元物体検出モデルの性能低下に有効であることがわかった。
論文 参考訳(メタデータ) (2021-02-07T05:34:14Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z) - Towards Robust LiDAR-based Perception in Autonomous Driving: General
Black-box Adversarial Sensor Attack and Countermeasures [24.708895480220733]
LiDARをベースとした認識は、被害者の自動運転車の前で敵が偽の車両をスポークする攻撃に対して脆弱である。
我々は、現在のLiDARベースの知覚アーキテクチャの一般的な脆弱性を調査するための最初の研究を行う。
特定された脆弱性に基づいた最初のブラックボックススプーフィング攻撃を構築し、平均成功率の約80%を普遍的に達成した。
論文 参考訳(メタデータ) (2020-06-30T17:07:45Z) - Spatiotemporal Attacks for Embodied Agents [119.43832001301041]
我々は、エンボディエージェントに対する敵攻撃を研究するための第一歩を踏み出した。
特に,時間次元と空間次元の両方の相互作用履歴を利用する逆例を生成する。
我々の摂動は強力な攻撃力と一般化能力を持っている。
論文 参考訳(メタデータ) (2020-05-19T01:38:47Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。