論文の概要: A Comprehensive Study and Comparison of the Robustness of 3D Object
Detectors Against Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2212.10230v1
- Date: Tue, 20 Dec 2022 13:09:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 16:33:55.366744
- Title: A Comprehensive Study and Comparison of the Robustness of 3D Object
Detectors Against Adversarial Attacks
- Title(参考訳): 敵攻撃に対する3次元物体検出器のロバスト性に関する総合的研究と比較
- Authors: Yifan Zhang, Junhui Hou, Yixuan Yuan
- Abstract要約: 3Dオブジェクト検出器は近年大きく進歩し、広範囲のアプリケーションにデプロイされている。
セキュリティクリティカルなアプリケーションに検出器を用いる場合、敵攻撃に対する検出器の堅牢性を理解することが重要である。
本稿では, 敵攻撃時の3次元検出器のロバスト性について, 徹底的な評価と解析を行うための最初の試みを行う。
- 参考スコア(独自算出の注目度): 67.33437170894221
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based 3D object detectors have made significant progress in
recent years and have been deployed in a wide range of applications. It is
crucial to understand the robustness of detectors against adversarial attacks
when employing detectors in security-critical applications. In this paper, we
make the first attempt to conduct a thorough evaluation and analysis of the
robustness of 3D detectors under adversarial attacks. Specifically, we first
extend three kinds of adversarial attacks to the 3D object detection task to
benchmark the robustness of state-of-the-art 3D object detectors against
attacks on KITTI and Waymo datasets, subsequently followed by the analysis of
the relationship between robustness and properties of detectors. Then, we
explore the transferability of cross-model, cross-task, and cross-data attacks.
We finally conduct comprehensive experiments of defense for 3D detectors,
demonstrating that simple transformations like flipping are of little help in
improving robustness when the strategy of transformation imposed on input point
cloud data is exposed to attackers. Our findings will facilitate investigations
in understanding and defending the adversarial attacks against 3D object
detectors to advance this field.
- Abstract(参考訳): ディープラーニングに基づく3Dオブジェクト検出器は近年大きく進歩し、広範囲のアプリケーションにデプロイされている。
セキュリティクリティカルなアプリケーションに検出器を用いる場合、敵攻撃に対する検出器の堅牢性を理解することが重要である。
本稿では,3次元検出器のロバスト性について,敵の攻撃下での徹底的な評価と解析を行う最初の試みを行う。
具体的には、まず3種類の敵対攻撃を3Dオブジェクト検出タスクに拡張し、KITTIとWaymoデータセットに対する攻撃に対する最先端の3Dオブジェクト検出器のロバスト性をベンチマークし、続いて検出器のロバスト性と特性の関係を解析する。
次に、クロスモデル、クロスタスク、およびデータ横断攻撃の転送可能性について検討する。
我々は最終的に3D検出器の防御に関する総合的な実験を行い、入力ポイントクラウドデータに課される変換戦略が攻撃者に露出した場合、フリップのような単純な変換はロバスト性を改善するのにはほとんど役立ちません。
本研究は,3次元物体検出器に対する攻撃の理解と防御のための調査を支援する。
関連論文リスト
- ScAR: Scaling Adversarial Robustness for LiDAR Object Detection [6.472434306724611]
モデルの敵の堅牢性は、敵の攻撃に抵抗する能力である。
我々は,LiDARオブジェクト検出のためのブラックボックススケーリング逆攻撃法を提案する。
論文 参考訳(メタデータ) (2023-12-05T19:03:33Z) - AdvMono3D: Advanced Monocular 3D Object Detection with Depth-Aware
Robust Adversarial Training [64.14759275211115]
そこで本研究では,DART3Dと呼ばれるモノクル3次元物体検出のための,深度対応の頑健な対向学習法を提案する。
我々の敵の訓練アプローチは、本質的な不確実性に乗じて、敵の攻撃に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-09-03T07:05:32Z) - On the Adversarial Robustness of Camera-based 3D Object Detection [21.091078268929667]
本研究では, カメラを用いた3次元物体検出手法の諸条件下でのロバスト性について検討する。
鳥眼ビューに基づく表現は, 局所攻撃に対する強い強靭性を示す。
深さ推定のないアプローチは、強い強靭性を示す可能性がある。
マルチフレームベニグインプットを組み込むことで、敵攻撃を効果的に軽減することができる。
論文 参考訳(メタデータ) (2023-01-25T18:59:15Z) - Unsupervised Domain Adaptation for Monocular 3D Object Detection via
Self-Training [57.25828870799331]
我々は、Mono3D上での教師なしドメイン適応のための新しい自己学習フレームワークSTMono3Dを提案する。
対象ドメイン上で適応的な擬似ラベルを生成するための教師学生パラダイムを開発する。
STMono3Dは、評価されたすべてのデータセットで顕著なパフォーマンスを達成し、KITTI 3Dオブジェクト検出データセットの完全な教師付き結果を超えています。
論文 参考訳(メタデータ) (2022-04-25T12:23:07Z) - Sensor Adversarial Traits: Analyzing Robustness of 3D Object Detection
Sensor Fusion Models [16.823829387723524]
我々は,高性能でオープンソースのセンサ融合モデルアーキテクチャの強靭性を敵攻撃に対して解析する。
LIDARセンサーを使用しているにもかかわらず、このモデルは、意図的に構築された画像ベースの敵攻撃に対して脆弱であることがわかった。
論文 参考訳(メタデータ) (2021-09-13T23:38:42Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z) - Object Removal Attacks on LiDAR-based 3D Object Detectors [6.263478017242508]
オブジェクト除去攻撃(ORAs)は、3Dオブジェクト検出器を失敗させることを目的としている。
関心領域の摂動点雲に対して、1方向に1つの戻り信号を記録するLiDARのデフォルト設定を利用する。
その結果,この攻撃は一般的な3次元物体検出モデルの性能低下に有効であることがわかった。
論文 参考訳(メタデータ) (2021-02-07T05:34:14Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。