論文の概要: On the Adversarial Robustness of Camera-based 3D Object Detection
- arxiv url: http://arxiv.org/abs/2301.10766v2
- Date: Fri, 19 Jan 2024 01:51:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 19:39:39.666837
- Title: On the Adversarial Robustness of Camera-based 3D Object Detection
- Title(参考訳): カメラによる3次元物体検出の逆ロバスト性について
- Authors: Shaoyuan Xie, Zichao Li, Zeyu Wang, Cihang Xie
- Abstract要約: 本研究では, カメラを用いた3次元物体検出手法の諸条件下でのロバスト性について検討する。
鳥眼ビューに基づく表現は, 局所攻撃に対する強い強靭性を示す。
深さ推定のないアプローチは、強い強靭性を示す可能性がある。
マルチフレームベニグインプットを組み込むことで、敵攻撃を効果的に軽減することができる。
- 参考スコア(独自算出の注目度): 21.091078268929667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, camera-based 3D object detection has gained widespread
attention for its ability to achieve high performance with low computational
cost. However, the robustness of these methods to adversarial attacks has not
been thoroughly examined, especially when considering their deployment in
safety-critical domains like autonomous driving. In this study, we conduct the
first comprehensive investigation of the robustness of leading camera-based 3D
object detection approaches under various adversarial conditions. We
systematically analyze the resilience of these models under two attack
settings: white-box and black-box; focusing on two primary objectives:
classification and localization. Additionally, we delve into two types of
adversarial attack techniques: pixel-based and patch-based. Our experiments
yield four interesting findings: (a) bird's-eye-view-based representations
exhibit stronger robustness against localization attacks; (b)
depth-estimation-free approaches have the potential to show stronger
robustness; (c) accurate depth estimation effectively improves robustness for
depth-estimation-based methods; (d) incorporating multi-frame benign inputs can
effectively mitigate adversarial attacks. We hope our findings can steer the
development of future camera-based object detection models with enhanced
adversarial robustness.
- Abstract(参考訳): 近年,低計算コストで高性能な3d物体検出技術が注目されている。
しかし、特に自動運転のような安全クリティカルな分野への展開を考える場合、敵対的攻撃に対するこれらの方法の堅牢性は十分に検討されていない。
本研究では,種々の対向条件下での先行カメラによる3次元物体検出手法の堅牢性に関する総合的な調査を行った。
我々はこれらのモデルのレジリエンスを、ホワイトボックスとブラックボックスという2つの攻撃条件下で体系的に分析し、分類とローカライゼーションの2つの主要な目的に焦点を当てた。
さらに、ピクセルベースとパッチベースの2種類の逆攻撃手法についても検討する。
私たちの実験は4つの興味深い発見をもたらします
(a)鳥眼ビューに基づく表現は、局所攻撃に対して強い強靭性を示す。
b) 深さ推定のないアプローチは、強い強靭性を示す可能性がある。
(c)正確な深さ推定は、深さ推定に基づく手法の堅牢性を効果的に改善する。
(d)マルチフレームベニグインプットを組み込むことで、敵攻撃を効果的に軽減することができる。
今後のカメラベースの物体検出モデルの開発において,本研究の成果が促進されることを願っている。
関連論文リスト
- Instance-aware Multi-Camera 3D Object Detection with Structural Priors
Mining and Self-Boosting Learning [93.71280187657831]
カメラによる鳥眼視(BEV)知覚パラダイムは、自律運転分野において大きな進歩を遂げている。
画像平面のインスタンス認識をBEV検出器内の深度推定プロセスに統合するIA-BEVを提案する。
論文 参考訳(メタデータ) (2023-12-13T09:24:42Z) - AdvMono3D: Advanced Monocular 3D Object Detection with Depth-Aware
Robust Adversarial Training [64.14759275211115]
そこで本研究では,DART3Dと呼ばれるモノクル3次元物体検出のための,深度対応の頑健な対向学習法を提案する。
我々の敵の訓練アプローチは、本質的な不確実性に乗じて、敵の攻撃に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-09-03T07:05:32Z) - Towards Domain Generalization for Multi-view 3D Object Detection in
Bird-Eye-View [11.958753088613637]
まず,MV3D-Detタスクにおける領域ギャップの原因を解析する。
頑健な深度予測を得るために,カメラの内在パラメータから深度推定を分離する手法を提案する。
焦点長の値を変更して複数の擬似ドメインを作成し、敵の訓練損失を発生させ、特徴表現をよりドメインに依存しないものにするよう促す。
論文 参考訳(メタデータ) (2023-03-03T02:59:13Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - On the Robustness of Quality Measures for GANs [136.18799984346248]
本研究は、インセプションスコア(IS)やFr'echet Inception Distance(FID)のような生成モデルの品質測定の堅牢性を評価する。
このような測度は、加算画素摂動によっても操作可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T06:43:09Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。