論文の概要: The Meeseeks Mesh: Spatially Consistent 3D Adversarial Objects for BEV Detector
- arxiv url: http://arxiv.org/abs/2505.22499v1
- Date: Wed, 28 May 2025 15:49:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.706745
- Title: The Meeseeks Mesh: Spatially Consistent 3D Adversarial Objects for BEV Detector
- Title(参考訳): Meeseeks Mesh:BEV検出器のための空間的に一貫性のある3次元対向物体
- Authors: Aixuan Li, Mochu Xiang, Jing Zhang, Yuchao Dai,
- Abstract要約: 3Dオブジェクト検出は、自律運転システムにおいて重要な要素である。
本稿では,3次元物体検出モデルの3次元敵攻撃に対する脆弱性について検討する。
実世界の攻撃シナリオに適した非侵襲的な3次元対向オブジェクトを生成する。
- 参考スコア(独自算出の注目度): 37.74333887056029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D object detection is a critical component in autonomous driving systems. It allows real-time recognition and detection of vehicles, pedestrians and obstacles under varying environmental conditions. Among existing methods, 3D object detection in the Bird's Eye View (BEV) has emerged as the mainstream framework. To guarantee a safe, robust and trustworthy 3D object detection, 3D adversarial attacks are investigated, where attacks are placed in 3D environments to evaluate the model performance, e.g., putting a film on a car, clothing a pedestrian. The vulnerability of 3D object detection models to 3D adversarial attacks serves as an important indicator to evaluate the robustness of the model against perturbations. To investigate this vulnerability, we generate non-invasive 3D adversarial objects tailored for real-world attack scenarios. Our method verifies the existence of universal adversarial objects that are spatially consistent across time and camera views. Specifically, we employ differentiable rendering techniques to accurately model the spatial relationship between adversarial objects and the target vehicle. Furthermore, we introduce an occlusion-aware module to enhance visual consistency and realism under different viewpoints. To maintain attack effectiveness across multiple frames, we design a BEV spatial feature-guided optimization strategy. Experimental results demonstrate that our approach can reliably suppress vehicle predictions from state-of-the-art 3D object detectors, serving as an important tool to test robustness of 3D object detection models before deployment. Moreover, the generated adversarial objects exhibit strong generalization capabilities, retaining its effectiveness at various positions and distances in the scene.
- Abstract(参考訳): 3Dオブジェクト検出は、自律運転システムにおいて重要な要素である。
環境条件の異なる車両、歩行者、障害物のリアルタイム認識と検出を可能にする。
既存の手法の中では、Bird's Eye View (BEV) における3Dオブジェクト検出が主流のフレームワークとして現れている。
安全で堅牢で信頼性の高い3Dオブジェクト検出を保証するため、3D対向攻撃を3D環境に配置し、例えば、車にフィルムを配置し、歩行者を装うなどしてモデル性能を評価する。
3次元物体検出モデルの3次元敵攻撃に対する脆弱性は、摂動に対するモデルの堅牢性を評価する重要な指標となる。
この脆弱性を調査するために,現実世界の攻撃シナリオに適した非侵襲的な3次元対向物体を生成する。
本手法は,時間とカメラの視点で空間的に一貫した普遍的対向物体の存在を検証する。
具体的には, 対向物体と対象車両の空間的関係を正確にモデル化するために, 微分可能なレンダリング技術を用いる。
さらに、視覚的一貫性とリアリズムを異なる視点で向上させるオクルージョン認識モジュールを導入する。
複数のフレームにまたがる攻撃効率を維持するため,BEV空間特徴誘導最適化戦略を設計する。
実験により,本手法は,3次元物体検出モデルのロバスト性をテストする重要なツールとして,最先端の3次元物体検出装置からの車両予測を確実に抑制できることを示す。
さらに、生成した対向物体は強い一般化能力を示し、シーン内の様々な位置や距離で有効性を維持する。
関連論文リスト
- RQR3D: Reparametrizing the regression targets for BEV-based 3D object detection [0.4604003661048266]
Bird's-eye view (BEV)ベースの知覚アプローチは、パースペクティブベースのソリューションの優れた代替手段として現れている。
本稿では,3次元回帰目標を定義するために,制限付き四辺形表現を提案する。
RQR3Dは、2つのボックスの隅の間にあるオフセットとともに、指向するボックスをカプセル化する最小の水平境界ボックスを回帰する。
論文 参考訳(メタデータ) (2025-05-23T10:52:34Z) - DriveGEN: Generalized and Robust 3D Detection in Driving via Controllable Text-to-Image Diffusion Generation [49.32104127246474]
DriveGENは、トレーニング不要のテキストから画像への拡散生成である。
様々なアウト・オブ・ディストリビューション世代にまたがる正確な3D形状のオブジェクトを一貫して保存する。
論文 参考訳(メタデータ) (2025-03-14T06:35:38Z) - Street Gaussians without 3D Object Tracker [86.62329193275916]
既存の方法は、標準空間における動的オブジェクトを再構築するために、オブジェクトポーズの労働集約的な手動ラベリングに依存している。
本研究では,3次元オブジェクト融合戦略における2次元ディープトラッカーの関連性を利用して,安定なオブジェクト追跡モジュールを提案する。
我々は、軌道誤差を自律的に補正し、見逃した検出を回復する暗黙の特徴空間に、モーションラーニング戦略を導入することで、避けられないトラッキングエラーに対処する。
論文 参考訳(メタデータ) (2024-12-07T05:49:42Z) - Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - AdvMono3D: Advanced Monocular 3D Object Detection with Depth-Aware
Robust Adversarial Training [64.14759275211115]
そこで本研究では,DART3Dと呼ばれるモノクル3次元物体検出のための,深度対応の頑健な対向学習法を提案する。
我々の敵の訓練アプローチは、本質的な不確実性に乗じて、敵の攻撃に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-09-03T07:05:32Z) - SOGDet: Semantic-Occupancy Guided Multi-view 3D Object Detection [19.75965521357068]
本稿では,SOGDet(Semantic-Occupancy Guided Multi-view Object Detection)と呼ばれる新しい手法を提案する。
以上の結果から,SOGDet は nuScenes Detection Score (NDS) と平均平均精度 (mAP) の3つのベースライン法の性能を一貫して向上させることがわかった。
これは、3Dオブジェクト検出と3Dセマンティック占有の組み合わせが、3D環境をより包括的に認識し、より堅牢な自律運転システムの構築を支援することを示唆している。
論文 参考訳(メタデータ) (2023-08-26T07:38:21Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Homography Loss for Monocular 3D Object Detection [54.04870007473932]
ホログラフィーロス(Homography Loss)と呼ばれる,2次元情報と3次元情報の両方を利用する識別可能なロス関数を提案する。
提案手法は,KITTI 3Dデータセットにおいて,他の最先端技術と比較して高い性能を示す。
論文 参考訳(メタデータ) (2022-04-02T03:48:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。