論文の概要: Physically Realizable Adversarial Examples for LiDAR Object Detection
- arxiv url: http://arxiv.org/abs/2004.00543v2
- Date: Thu, 2 Apr 2020 16:02:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 18:36:15.617190
- Title: Physically Realizable Adversarial Examples for LiDAR Object Detection
- Title(参考訳): LiDARオブジェクト検出のための物理的に実現可能な逆例
- Authors: James Tu, Mengye Ren, Siva Manivasagam, Ming Liang, Bin Yang, Richard
Du, Frank Cheng, Raquel Urtasun
- Abstract要約: 本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
- 参考スコア(独自算出の注目度): 72.0017682322147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern autonomous driving systems rely heavily on deep learning models to
process point cloud sensory data; meanwhile, deep models have been shown to be
susceptible to adversarial attacks with visually imperceptible perturbations.
Despite the fact that this poses a security concern for the self-driving
industry, there has been very little exploration in terms of 3D perception, as
most adversarial attacks have only been applied to 2D flat images. In this
paper, we address this issue and present a method to generate universal 3D
adversarial objects to fool LiDAR detectors. In particular, we demonstrate that
placing an adversarial object on the rooftop of any target vehicle to hide the
vehicle entirely from LiDAR detectors with a success rate of 80%. We report
attack results on a suite of detectors using various input representation of
point clouds. We also conduct a pilot study on adversarial defense using data
augmentation. This is one step closer towards safer self-driving under unseen
conditions from limited training data.
- Abstract(参考訳): 現代の自動運転システムは、クラウドセンシングデータを処理するためにディープラーニングモデルに重きを置き、一方、深いモデルは視覚的に知覚できない摂動を伴う敵対的攻撃に影響を受けやすいことが示されている。
これは自動運転業界にとってセキュリティ上の懸念であるにもかかわらず、3d認識に関する調査はほとんど行われておらず、ほとんどの敵の攻撃は2dフラット画像にのみ適用されている。
本稿では,この問題に対処し,LiDAR検出器を騙すために汎用な3次元対向物体を生成する方法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
点雲の様々な入力表現を用いた検出器群に対する攻撃結果を報告する。
また,データ拡張を用いた敵防御に関するパイロット研究も実施する。
これは、限られたトレーニングデータから見えない条件下での安全な自動運転に向けての一歩だ。
関連論文リスト
- Exploring Adversarial Robustness of LiDAR-Camera Fusion Model in
Autonomous Driving [17.618527727914163]
本研究では,LiDAR-Camera融合モデルの3次元物体検出における対角的ロバスト性を評価する。
そこで本研究では,車上における物理的制約点数に制限を加えるだけで,融合モデルにより車体を検出不能にすることができる攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-03T17:48:40Z) - Exorcising ''Wraith'': Protecting LiDAR-based Object Detector in
Automated Driving System from Appearing Attacks [20.38692153553779]
自動駆動システムは、LiDAR点雲から可能な障害物を認識するために、3Dオブジェクト検出器に依存している。
近年の研究では、偽のポイント数点の予測結果において、敵が存在していない車を偽造できることが示されている。
そこで本研究では,LiDARをベースとしたオブジェクト検出装置を並列に動作させる,新しいプラグ・アンド・プレイディフェンスモジュールを提案する。
論文 参考訳(メタデータ) (2023-03-17T02:20:47Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Hindsight is 20/20: Leveraging Past Traversals to Aid 3D Perception [59.2014692323323]
小さな、遠く、あるいは非常に隠蔽された物体は、検出するためのLiDAR点雲に限られた情報があるため、特に困難である。
本稿では,過去データから文脈情報を抽出する,エンドツーエンドのトレーニング可能な新しいフレームワークを提案する。
このフレームワークは現代のほとんどの3D検出アーキテクチャと互換性があり、複数の自律走行データセットの平均精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-03-22T00:58:27Z) - 3D-VField: Learning to Adversarially Deform Point Clouds for Robust 3D
Object Detection [111.32054128362427]
安全クリティカルな環境では、アウト・オブ・ディストリビューションとロングテールサンプルの堅牢性は、危険な問題を回避するのに不可欠である。
トレーニング中の変形点雲を考慮した3次元物体検出器の領域外データへの一般化を著しく改善する。
我々は、リアルに損傷を受けた稀な車の合成データセットであるCrashDを提案し、共有する。
論文 参考訳(メタデータ) (2021-12-09T08:50:54Z) - Temporal Consistency Checks to Detect LiDAR Spoofing Attacks on
Autonomous Vehicle Perception [4.092959254671909]
最近の研究は、深刻なLiDARスプーフィング攻撃と警告的な結果をもたらしている。
本研究では、このような攻撃を検出するために、本物の物体の物理的不変量としての運動の利用について検討する。
3D-TC2の試作機の設計と実装は、非常に有望な性能を示している。
論文 参考訳(メタデータ) (2021-06-15T01:36:40Z) - Fooling LiDAR Perception via Adversarial Trajectory Perturbation [13.337443990751495]
移動車両から集められたLiDARポイント雲は、歪みを避けるためにセンサーの動きを補償する必要があるため、その軌道の機能です。
その結果、深層学習とGPSによる車両軌道推定の両面から、運動補償は広範に開放されたバックドアになるのだろうか?
我々は、初めてこのような可能性を示す: 生のLiDARの読みを改ざんする必要のある点雲座標を直接攻撃するのではなく、小さな摂動で自動運転車の軌道を逆さまに振るだけで十分である。
論文 参考訳(メタデータ) (2021-03-29T04:34:31Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Towards Robust LiDAR-based Perception in Autonomous Driving: General
Black-box Adversarial Sensor Attack and Countermeasures [24.708895480220733]
LiDARをベースとした認識は、被害者の自動運転車の前で敵が偽の車両をスポークする攻撃に対して脆弱である。
我々は、現在のLiDARベースの知覚アーキテクチャの一般的な脆弱性を調査するための最初の研究を行う。
特定された脆弱性に基づいた最初のブラックボックススプーフィング攻撃を構築し、平均成功率の約80%を普遍的に達成した。
論文 参考訳(メタデータ) (2020-06-30T17:07:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。