論文の概要: Seeing is Deceiving: Mirror-Based LiDAR Spoofing for Autonomous Vehicle Deception
- arxiv url: http://arxiv.org/abs/2509.17253v2
- Date: Tue, 23 Sep 2025 17:34:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.388911
- Title: Seeing is Deceiving: Mirror-Based LiDAR Spoofing for Autonomous Vehicle Deception
- Title(参考訳): 鏡をベースとしたLiDARスポウティングで自動運転車の誤認を防げる
- Authors: Selma Yahia, Ildi Alla, Girija Bangalore Mohan, Daniel Rau, Mridula Singh, Valeria Loscri,
- Abstract要約: 我々は、鏡のような表面を利用する低コストでパッシブなLiDARスプーフィング攻撃のクラスを示す。
これらの攻撃は電子部品やカスタムメイクを必要とせず、実際の設定で展開できる。
実験では、ミラー攻撃が破損した占有グリッドを攻撃し、誤った検出を誘導し、安全でない計画と制御行動を引き起こす。
- 参考スコア(独自算出の注目度): 0.6865481844899556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous vehicles (AVs) rely heavily on LiDAR sensors for accurate 3D perception. We show a novel class of low-cost, passive LiDAR spoofing attacks that exploit mirror-like surfaces to inject or remove objects from an AV's perception. Using planar mirrors to redirect LiDAR beams, these attacks require no electronics or custom fabrication and can be deployed in real settings. We define two adversarial goals: Object Addition Attacks (OAA), which create phantom obstacles, and Object Removal Attacks (ORA), which conceal real hazards. We develop geometric optics models, validate them with controlled outdoor experiments using a commercial LiDAR and an Autoware-equipped vehicle, and implement a CARLA-based simulation for scalable testing. Experiments show mirror attacks corrupt occupancy grids, induce false detections, and trigger unsafe planning and control behaviors. We discuss potential defenses (thermal sensing, multi-sensor fusion, light-fingerprinting) and their limitations.
- Abstract(参考訳): 自動運転車(AV)は正確な3D知覚のためにLiDARセンサーに大きく依存している。
我々は、鏡のような表面を利用して、AVの知覚から物体を注入または除去する、低コストでパッシブなLiDARスプーフィング攻撃の新たなクラスを示す。
平面鏡を用いてLiDARビームをリダイレクトする攻撃では、電子部品やカスタムメイクを必要とせず、実際の設定で展開できる。
対象付加攻撃(OAA)とオブジェクト除去攻撃(ORA)の2つの敵目標を定義した。
我々は、幾何学光学モデルを開発し、商用のLiDARとオートウェア搭載車を用いて制御された屋外実験で検証し、スケーラブルなテストのためのCARLAベースのシミュレーションを実装した。
実験では、ミラー攻撃が破損した占有グリッドを攻撃し、誤った検出を誘導し、安全でない計画と制御行動を引き起こす。
熱センシング,マルチセンサフュージョン,光フィンガープリント)とその限界について論じる。
関連論文リスト
- LiDAR Spoofing Meets the New-Gen: Capability Improvements, Broken
Assumptions, and New Attack Strategies [26.9731228822657]
最近の研究では、LiDARに対して悪意のあるレーザーを発射することで、LiDAR点雲とばかげた物体検出器を操作できることが判明した。
9つのLiDARを持つ物体検出器に対するLiDARスプーフィング攻撃能の大規模測定を行った。
測定角度の新規性による新しいものだけでなく、この問題の領域における最新の理解に直接挑戦できるものも多数含まれている。
論文 参考訳(メタデータ) (2023-03-19T03:46:27Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Fooling LiDAR Perception via Adversarial Trajectory Perturbation [13.337443990751495]
移動車両から集められたLiDARポイント雲は、歪みを避けるためにセンサーの動きを補償する必要があるため、その軌道の機能です。
その結果、深層学習とGPSによる車両軌道推定の両面から、運動補償は広範に開放されたバックドアになるのだろうか?
我々は、初めてこのような可能性を示す: 生のLiDARの読みを改ざんする必要のある点雲座標を直接攻撃するのではなく、小さな摂動で自動運転車の軌道を逆さまに振るだけで十分である。
論文 参考訳(メタデータ) (2021-03-29T04:34:31Z) - Object Removal Attacks on LiDAR-based 3D Object Detectors [6.263478017242508]
オブジェクト除去攻撃(ORAs)は、3Dオブジェクト検出器を失敗させることを目的としている。
関心領域の摂動点雲に対して、1方向に1つの戻り信号を記録するLiDARのデフォルト設定を利用する。
その結果,この攻撃は一般的な3次元物体検出モデルの性能低下に有効であることがわかった。
論文 参考訳(メタデータ) (2021-02-07T05:34:14Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Recovering and Simulating Pedestrians in the Wild [81.38135735146015]
本研究では,自動車の走行によって野生で捕獲されたセンサから歩行者の形状と動きを復元することを提案する。
再建された歩行者資産銀行をリアルな3Dシミュレーションシステムに組み込む。
シミュレーションしたLiDARデータを用いて,視覚知覚タスクに必要な実世界のデータ量を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2020-11-16T17:16:32Z) - Towards Robust LiDAR-based Perception in Autonomous Driving: General
Black-box Adversarial Sensor Attack and Countermeasures [24.708895480220733]
LiDARをベースとした認識は、被害者の自動運転車の前で敵が偽の車両をスポークする攻撃に対して脆弱である。
我々は、現在のLiDARベースの知覚アーキテクチャの一般的な脆弱性を調査するための最初の研究を行う。
特定された脆弱性に基づいた最初のブラックボックススプーフィング攻撃を構築し、平均成功率の約80%を普遍的に達成した。
論文 参考訳(メタデータ) (2020-06-30T17:07:45Z) - LiDARsim: Realistic LiDAR Simulation by Leveraging the Real World [84.57894492587053]
物理に基づくシミュレーションと学習に基づくシミュレーションの両方のパワーをキャプチャする新しいシミュレータを開発した。
まず3Dシーン上でレイキャストを行い、次にディープニューラルネットワークを用いて物理シミュレーションから偏差を生成する。
本稿では,LiDARsimが長距離イベントにおける認識アルゴリズムのテストに有用であること,および安全クリティカルシナリオにおけるエンドツーエンドのクローズループ評価について紹介する。
論文 参考訳(メタデータ) (2020-06-16T17:44:35Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。