論文の概要: Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving
- arxiv url: http://arxiv.org/abs/2101.06784v2
- Date: Tue, 26 Jan 2021 00:40:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 20:44:27.514484
- Title: Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving
- Title(参考訳): 自動運転におけるマルチセンサ知覚システムの対向ロバスト性探索
- Authors: James Tu, Huichen Li, Xinchen Yan, Mengye Ren, Yun Chen, Ming Liang,
Eilyan Bitar, Ersin Yumer, Raquel Urtasun
- Abstract要約: 本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
- 参考スコア(独自算出の注目度): 87.3492357041748
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern self-driving perception systems have been shown to improve upon
processing complementary inputs such as LiDAR with images. In isolation, 2D
images have been found to be extremely vulnerable to adversarial attacks. Yet,
there have been limited studies on the adversarial robustness of multi-modal
models that fuse LiDAR features with image features. Furthermore, existing
works do not consider physically realizable perturbations that are consistent
across the input modalities. In this paper, we showcase practical
susceptibilities of multi-sensor detection by placing an adversarial object on
top of a host vehicle. We focus on physically realizable and input-agnostic
attacks as they are feasible to execute in practice, and show that a single
universal adversary can hide different host vehicles from state-of-the-art
multi-modal detectors. Our experiments demonstrate that successful attacks are
primarily caused by easily corrupted image features. Furthermore, we find that
in modern sensor fusion methods which project image features into 3D,
adversarial attacks can exploit the projection process to generate false
positives across distant regions in 3D. Towards more robust multi-modal
perception systems, we show that adversarial training with feature denoising
can boost robustness to such attacks significantly. However, we find that
standard adversarial defenses still struggle to prevent false positives which
are also caused by inaccurate associations between 3D LiDAR points and 2D
pixels.
- Abstract(参考訳): 現代の自動運転認識システムは、LiDARのような補完的な入力を画像処理することで改善されている。
孤立して、2D画像は敵の攻撃に対して極めて脆弱であることが判明した。
しかし、lidarの特徴と画像特徴を融合するマルチモーダルモデルの敵対的ロバスト性に関する研究は限られている。
さらに、既存の研究は入力モード間で整合性を持つ物理的に実現可能な摂動を考慮しない。
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
我々は、物理的に実現可能で入力に依存しない攻撃に焦点を合わせ、単一の普遍的な敵が最先端のマルチモーダル検出器から異なるホスト車両を隠せることを示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
さらに, 画像特徴を3次元に投影する現代のセンサ融合法では, 敵攻撃は投射過程を利用して3次元の遠方領域に偽陽性を発生させることができる。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
しかし,3次元LiDAR点と2次元画素間の不正確な関連によってもたらされる偽陽性の予防には,標準的な対人防御が依然として苦戦していることがわかった。
関連論文リスト
- TPatch: A Triggered Physical Adversarial Patch [19.768494127237393]
音響信号によって引き起こされる物理的対向パッチであるTPatchを提案する。
運転者の疑念を避けるため,コンテンツベースカモフラージュ法と攻撃強化法を提案する。
論文 参考訳(メタデータ) (2023-12-30T06:06:01Z) - AdvMono3D: Advanced Monocular 3D Object Detection with Depth-Aware
Robust Adversarial Training [64.14759275211115]
そこで本研究では,DART3Dと呼ばれるモノクル3次元物体検出のための,深度対応の頑健な対向学習法を提案する。
我々の敵の訓練アプローチは、本質的な不確実性に乗じて、敵の攻撃に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-09-03T07:05:32Z) - Unified Adversarial Patch for Visible-Infrared Cross-modal Attacks in
the Physical World [11.24237636482709]
我々は,単一パッチを同時に両モードで回避し,クロスモーダルな物理的攻撃を行える統一逆襲パッチを設計する。
本稿では, 対向パッチのコンパクトかつ滑らかな形状を実現することを目的とした, 境界制限型形状最適化手法を提案する。
提案手法はいくつかの最先端物体検出器に対して評価され,アタック成功率 (ASR) は80%以上である。
論文 参考訳(メタデータ) (2023-07-27T08:14:22Z) - Unified Adversarial Patch for Cross-modal Attacks in the Physical World [11.24237636482709]
単一パッチにより同時に可視・近赤外物体検出装置を騙すための一元対向パッチを提案する。
可視・赤外線センサの異なるイメージング機構を考慮すると、我々の研究は対向パッチの形状をモデル化することに集中している。
その結果、我々の統一パッチは、それぞれ73.33%と69.17%のアタック成功率(ASR)を達成した。
論文 参考訳(メタデータ) (2023-07-15T17:45:17Z) - On the Adversarial Robustness of Camera-based 3D Object Detection [21.091078268929667]
本研究では, カメラを用いた3次元物体検出手法の諸条件下でのロバスト性について検討する。
鳥眼ビューに基づく表現は, 局所攻撃に対する強い強靭性を示す。
深さ推定のないアプローチは、強い強靭性を示す可能性がある。
マルチフレームベニグインプットを組み込むことで、敵攻撃を効果的に軽減することができる。
論文 参考訳(メタデータ) (2023-01-25T18:59:15Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - On the Robustness of Quality Measures for GANs [136.18799984346248]
本研究は、インセプションスコア(IS)やFr'echet Inception Distance(FID)のような生成モデルの品質測定の堅牢性を評価する。
このような測度は、加算画素摂動によっても操作可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T06:43:09Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。