論文の概要: Physical 3D Adversarial Attacks against Monocular Depth Estimation in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2403.17301v2
- Date: Wed, 27 Mar 2024 08:23:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 11:48:28.216520
- Title: Physical 3D Adversarial Attacks against Monocular Depth Estimation in Autonomous Driving
- Title(参考訳): 自律走行における単眼深度推定に対する物理的3次元対向攻撃
- Authors: Junhao Zheng, Chenhao Lin, Jiahao Sun, Zhengyu Zhao, Qian Li, Chao Shen,
- Abstract要約: 3D Depth Fool (3D$2$Fool)は、MDEモデルに対する最初の3Dテクスチャベースの敵攻撃である。
3D$2$Foolは、車種をモデル化するための3Dの敵対的なテクスチャを生成するために特別に最適化されている。
物理的車体モデルに3Dテクスチャを印刷した実世界の実験では、我々の3D$2$Foolが10メートル以上のMDEエラーを引き起こします。
- 参考スコア(独自算出の注目度): 14.17222342043126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning-based monocular depth estimation (MDE), extensively applied in autonomous driving, is known to be vulnerable to adversarial attacks. Previous physical attacks against MDE models rely on 2D adversarial patches, so they only affect a small, localized region in the MDE map but fail under various viewpoints. To address these limitations, we propose 3D Depth Fool (3D$^2$Fool), the first 3D texture-based adversarial attack against MDE models. 3D$^2$Fool is specifically optimized to generate 3D adversarial textures agnostic to model types of vehicles and to have improved robustness in bad weather conditions, such as rain and fog. Experimental results validate the superior performance of our 3D$^2$Fool across various scenarios, including vehicles, MDE models, weather conditions, and viewpoints. Real-world experiments with printed 3D textures on physical vehicle models further demonstrate that our 3D$^2$Fool can cause an MDE error of over 10 meters.
- Abstract(参考訳): 深層学習に基づく単眼深度推定(MDE)は、自律運転に広く適用されており、敵の攻撃に対して脆弱であることが知られている。
これまでのMDEモデルに対する物理的攻撃は2次元の敵パッチに依存していたため、MDEマップ内の小さな局所的な領域にしか影響しないが、様々な視点で失敗する。
これらの制約に対処するため、3D Depth Fool(3D$^2$Fool)を提案する。
3D$^2$Foolは、モデル車両に非依存な3D対向テクスチャの生成と、雨や霧などの悪天候条件下での堅牢性の改善に特化している。
実験により, 車両, MDEモデル, 気象条件, 視点など, 様々なシナリオにおける3D$^2$Foolの優れた性能が検証された。
物理車載モデルに3Dテクスチャを印刷した実世界の実験は、我々の3D$^2$Foolが10m以上のMDE誤差を引き起こすことをさらに証明している。
関連論文リスト
- Decaf: Monocular Deformation Capture for Face and Hand Interactions [77.75726740605748]
本稿では,単眼のRGBビデオから人間の顔と対話する人間の手を3Dで追跡する手法を提案する。
動作中の非剛性面の変形を誘発する定形物体として手をモデル化する。
本手法は,マーカーレスマルチビューカメラシステムで取得した現実的な顔変形を伴う手動・インタラクションキャプチャーデータセットに頼っている。
論文 参考訳(メタデータ) (2023-09-28T17:59:51Z) - Towards Robust and Smooth 3D Multi-Person Pose Estimation from Monocular
Videos in the Wild [10.849750765175754]
POTR-3Dは3DMPPEのためのシーケンスツーシーケンス2D-to-3Dリフトモデルである。
多様な見えないビューに強く一般化し、重いオクルージョンに対するポーズを強く回復し、より自然でスムーズなアウトプットを確実に生成する。
論文 参考訳(メタデータ) (2023-09-15T06:17:22Z) - AdvMono3D: Advanced Monocular 3D Object Detection with Depth-Aware
Robust Adversarial Training [64.14759275211115]
そこで本研究では,DART3Dと呼ばれるモノクル3次元物体検出のための,深度対応の頑健な対向学習法を提案する。
我々の敵の訓練アプローチは、本質的な不確実性に乗じて、敵の攻撃に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-09-03T07:05:32Z) - On the Metrics for Evaluating Monocular Depth Estimation [0.0]
我々は、MDEモデルから来る3Dポイント雲を用いて、最先端の3Dオブジェクト検出器を訓練し、テストする。
実際、MDE評価基準は、私たちが期待する3Dオブジェクト検出結果に比較的よく反映した手法のランク付けをもたらすと結論付けている。
論文 参考訳(メタデータ) (2023-02-20T14:33:09Z) - DiffuPose: Monocular 3D Human Pose Estimation via Denoising Diffusion
Probabilistic Model [25.223801390996435]
本稿では,1つの2次元キーポイント検出から3次元ポーズを再構築することに焦点を当てた。
我々は,市販の2D検出器から多種多様な3Dポーズを効果的にサンプリングするための,拡散に基づく新しいフレームワークを構築した。
我々は,広く採用されているHuman3.6MとHumanEva-Iデータセットについて評価を行った。
論文 参考訳(メタデータ) (2022-12-06T07:22:20Z) - Physical Attack on Monocular Depth Estimation with Optimal Adversarial
Patches [18.58673451901394]
我々は学習に基づく単眼深度推定(MDE)に対する攻撃を開発する。
我々は,攻撃のステルス性と有効性を,オブジェクト指向の対角設計,感度領域の局所化,自然スタイルのカモフラージュとバランスさせる。
実験結果から,本手法は,異なる対象オブジェクトやモデルに対して,ステルス性,有効,堅牢な逆パッチを生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-11T08:59:09Z) - Homography Loss for Monocular 3D Object Detection [54.04870007473932]
ホログラフィーロス(Homography Loss)と呼ばれる,2次元情報と3次元情報の両方を利用する識別可能なロス関数を提案する。
提案手法は,KITTI 3Dデータセットにおいて,他の最先端技術と比較して高い性能を示す。
論文 参考訳(メタデータ) (2022-04-02T03:48:03Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z) - 3D-VField: Learning to Adversarially Deform Point Clouds for Robust 3D
Object Detection [111.32054128362427]
安全クリティカルな環境では、アウト・オブ・ディストリビューションとロングテールサンプルの堅牢性は、危険な問題を回避するのに不可欠である。
トレーニング中の変形点雲を考慮した3次元物体検出器の領域外データへの一般化を著しく改善する。
我々は、リアルに損傷を受けた稀な車の合成データセットであるCrashDを提案し、共有する。
論文 参考訳(メタデータ) (2021-12-09T08:50:54Z) - Neural Monocular 3D Human Motion Capture with Physical Awareness [76.55971509794598]
物理的に可塑性なマーカーレス3次元モーションキャプチャのための新しいトレーニングシステムを提案する。
人間のモーションキャプチャのためのほとんどのニューラルな手法とは異なり、我々のアプローチは物理的および環境的な制約を認識している。
様々な場面でインタラクティブなフレームレートで、滑らかで物理的に原理化された3dモーションを生成する。
論文 参考訳(メタデータ) (2021-05-03T17:57:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。