論文の概要: 3D-VField: Learning to Adversarially Deform Point Clouds for Robust 3D
Object Detection
- arxiv url: http://arxiv.org/abs/2112.04764v1
- Date: Thu, 9 Dec 2021 08:50:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 14:11:33.761149
- Title: 3D-VField: Learning to Adversarially Deform Point Clouds for Robust 3D
Object Detection
- Title(参考訳): 3D-VField:ロバストな3Dオブジェクト検出のための逆変形点雲の学習
- Authors: Alexander Lehner, Stefano Gasperini, Alvaro Marcos-Ramiro, Michael
Schmidt, Mohammad-Ali Nikouei Mahani, Nassir Navab, Benjamin Busam, Federico
Tombari
- Abstract要約: 安全クリティカルな環境では、アウト・オブ・ディストリビューションとロングテールサンプルの堅牢性は、危険な問題を回避するのに不可欠である。
トレーニング中の変形点雲を考慮した3次元物体検出器の領域外データへの一般化を著しく改善する。
我々は、リアルに損傷を受けた稀な車の合成データセットであるCrashDを提案し、共有する。
- 参考スコア(独自算出の注目度): 111.32054128362427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As 3D object detection on point clouds relies on the geometrical
relationships between the points, non-standard object shapes can hinder a
method's detection capability. However, in safety-critical settings, robustness
on out-of-distribution and long-tail samples is fundamental to circumvent
dangerous issues, such as the misdetection of damaged or rare cars. In this
work, we substantially improve the generalization of 3D object detectors to
out-of-domain data by taking into account deformed point clouds during
training. We achieve this with 3D-VField: a novel method that plausibly deforms
objects via vectors learned in an adversarial fashion. Our approach constrains
3D points to slide along their sensor view rays while neither adding nor
removing any of them. The obtained vectors are transferrable,
sample-independent and preserve shape smoothness and occlusions. By augmenting
normal samples with the deformations produced by these vector fields during
training, we significantly improve robustness against differently shaped
objects, such as damaged/deformed cars, even while training only on KITTI.
Towards this end, we propose and share open source CrashD: a synthetic dataset
of realistic damaged and rare cars, with a variety of crash scenarios.
Extensive experiments on KITTI, Waymo, our CrashD and SUN RGB-D show the high
generalizability of our techniques to out-of-domain data, different models and
sensors, namely LiDAR and ToF cameras, for both indoor and outdoor scenes. Our
CrashD dataset is available at https://crashd-cars.github.io.
- Abstract(参考訳): 点雲上の3次元物体検出は点間の幾何学的関係に依存するため、非標準物体形状はメソッドの検出能力を妨げうる。
しかし,安全クリティカルな環境では,破損車両やレアカーの誤検出などの危険な問題を回避するため,散布やロングテールサンプルの堅牢性が基本である。
本研究では,変形点雲を考慮した3次元物体検出器の領域外データへの一般化を著しく改善する。
3d-vfield: 逆向きに学習したベクトルによってオブジェクトを変形させる新しい手法である。
当社のアプローチでは、3dポイントをセンサーのビュー線に沿ってスライドさせても、追加や削除は行わない。
得られたベクターは移動可能であり、サンプル非依存であり、形状の滑らかさと閉塞性を保持する。
訓練中のベクトル場によって生じる変形により正常なサンプルを増強することにより,kittiのみでのトレーニングにおいても,損傷・変形車などの異なる形状の物体に対するロバスト性が著しく向上する。
この目的のために、我々はオープンソースのCrashD: 現実的な損傷と稀な車両の合成データセットを、さまざまなクラッシュシナリオで提案し、共有する。
KITTI、Waymo、CrashD、SUN RGB-Dの大規模な実験は、私たちの技術がドメイン外のデータ、異なるモデルとセンサー、すなわちLiDARとToFカメラに対して、屋内および屋外の両方で高い一般化性を示している。
クラッシュしたデータセットはhttps://crashd-cars.github.ioで利用可能です。
関連論文リスト
- 3D Adversarial Augmentations for Robust Out-of-Domain Predictions [115.74319739738571]
ドメイン外データへの一般化の改善に注力する。
対象を逆向きに変形させるベクトルの集合を学習する。
本研究では,学習したサンプル非依存ベクトルをモデルトレーニング時に利用可能なオブジェクトに適用することにより,対数拡大を行う。
論文 参考訳(メタデータ) (2023-08-29T17:58:55Z) - FocalFormer3D : Focusing on Hard Instance for 3D Object Detection [97.56185033488168]
3次元物体検出における偽陰性(False negatives, FN)は、自動運転において潜在的に危険な状況を引き起こす可能性がある。
本研究では,マルチステージ方式でtextitFN を識別する汎用パイプラインである Hard Instance Probing (HIP) を提案する。
この手法をFocalFormer3Dとしてインスタンス化する。
論文 参考訳(メタデータ) (2023-08-08T20:06:12Z) - On the Robustness of 3D Object Detectors [9.467525852900007]
3Dシーンには様々なバリエーションがあり、センサーの不正確さや前処理時の情報損失の傾向があります。
この研究は、一般的なポイントベースの3Dオブジェクト検出器をいくつかのデータ破損に対して分析し、ベンチマークすることを目的としている。
論文 参考訳(メタデータ) (2022-07-20T21:47:15Z) - Embracing Single Stride 3D Object Detector with Sparse Transformer [63.179720817019096]
自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:12:02Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。