論文の概要: Reviewing 3D Object Detectors in the Context of High-Resolution 3+1D
Radar
- arxiv url: http://arxiv.org/abs/2308.05478v1
- Date: Thu, 10 Aug 2023 10:10:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 12:48:15.455444
- Title: Reviewing 3D Object Detectors in the Context of High-Resolution 3+1D
Radar
- Title(参考訳): 高分解能3+1Dレーダにおける3次元物体検出器の検証
- Authors: Patrick Palmer and Martin Krueger and Richard Altendorfer and Ganesh
Adam and Torsten Bertram
- Abstract要約: 高分解能4D(3+1D)レーダーセンサーは、ディープラーニングに基づくレーダー知覚の研究を行っている。
本研究では,3次元物体検出のためのレーダポイントクラウドで動作するディープラーニングモデルについて検討する。
- 参考スコア(独自算出の注目度): 0.7279730418361995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent developments and the beginning market introduction of high-resolution
imaging 4D (3+1D) radar sensors have initialized deep learning-based radar
perception research. We investigate deep learning-based models operating on
radar point clouds for 3D object detection. 3D object detection on lidar point
cloud data is a mature area of 3D vision. Many different architectures have
been proposed, each with strengths and weaknesses. Due to similarities between
3D lidar point clouds and 3+1D radar point clouds, those existing 3D object
detectors are a natural basis to start deep learning-based 3D object detection
on radar data. Thus, the first step is to analyze the detection performance of
the existing models on the new data modality and evaluate them in depth. In
order to apply existing 3D point cloud object detectors developed for lidar
point clouds to the radar domain, they need to be adapted first. While some
detectors, such as PointPillars, have already been adapted to be applicable to
radar data, we have adapted others, e.g., Voxel R-CNN, SECOND, PointRCNN, and
PV-RCNN. To this end, we conduct a cross-model validation (evaluating a set of
models on one particular data set) as well as a cross-data set validation
(evaluating all models in the model set on several data sets). The
high-resolution radar data used are the View-of-Delft and Astyx data sets.
Finally, we evaluate several adaptations of the models and their training
procedures. We also discuss major factors influencing the detection performance
on radar data and propose possible solutions indicating potential future
research avenues.
- Abstract(参考訳): 近年の高分解能イメージング4D(3+1D)レーダセンサの市場導入は、ディープラーニングに基づくレーダ知覚研究を初期化している。
本研究では3次元物体検出のためのレーダポイントクラウドで動作するディープラーニングモデルについて検討する。
ライダーポイントクラウドデータを用いた3次元物体検出は3次元視覚の成熟した領域である。
多くの異なるアーキテクチャが提案されており、それぞれに強みと弱みがある。
3dlidar point cloudと3+1d radar point cloudsの類似性から、既存の3d object detectorsは、レーダーデータからディープラーニングベースの3d object detectionを開始するための自然な基盤である。
したがって、第1のステップは、新しいデータモダリティに基づいて既存のモデルの検出性能を分析し、それらを深く評価することである。
lidar point cloud用に開発された既存の3d point cloud object detectorsをレーダドメインに適用するには、最初に適用する必要がある。
ポイントピラーズなどの検出器はすでにレーダーデータに適用できるようになっているが、Voxel R-CNN、SECOND、PointRCNN、PV-RCNNなど他の検出器に適応している。
この目的のために、クロスモデル検証(特定のデータセット上のモデルの集合を評価する)とクロスデータセット検証(複数のデータセット上に設定されたモデル内のすべてのモデルを評価する)を行う。
使用される高解像度レーダーデータはview-of-delftとastyxデータセットである。
最後に,モデルの適応と学習手順について評価した。
また,レーダーデータの検出性能に影響を及ぼす主要な要因について検討し,今後の研究道を示す可能性について提案する。
関連論文リスト
- 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - Ego-Motion Estimation and Dynamic Motion Separation from 3D Point Clouds
for Accumulating Data and Improving 3D Object Detection [0.1474723404975345]
高解像度レーダーセンサーの1つは、ライダーセンサーと比較して、生成された点雲の空間性である。
このコントリビューションは、View-of-Delftデータセット上のレーダーポイント雲の蓄積制限を分析する。
エゴモーション推定と動的動き補正を応用して物体検出性能を向上させる実験を行った。
論文 参考訳(メタデータ) (2023-08-29T14:53:16Z) - Improving LiDAR 3D Object Detection via Range-based Point Cloud Density
Optimization [13.727464375608765]
既存の3Dオブジェクト検出器は、遠くにある領域とは対照的に、LiDARセンサーに近い点雲領域でよく機能する傾向にある。
センサ近傍の高密度物体に対する検出モデルには学習バイアスがあり、異なる距離で入力点雲密度を操作するだけで検出性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-09T04:11:43Z) - 3D Reconstruction of Multiple Objects by mmWave Radar on UAV [15.47494720280318]
UAVに搭載されたミリ波レーダーセンサを用いて空間内の複数の物体の3次元形状を再構成する可能性を検討する。
UAVは宇宙の様々な場所でホバリングし、搭載されたレーダーセンサーはSAR(Synthetic Aperture Radar)操作で空間をスキャンすることで生のレーダーデータを収集する。
レーダデータはディープニューラルネットワークモデルに送信され、空間内の複数のオブジェクトの点雲再構成を出力する。
論文 参考訳(メタデータ) (2022-11-03T21:23:36Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - 3D-VField: Learning to Adversarially Deform Point Clouds for Robust 3D
Object Detection [111.32054128362427]
安全クリティカルな環境では、アウト・オブ・ディストリビューションとロングテールサンプルの堅牢性は、危険な問題を回避するのに不可欠である。
トレーニング中の変形点雲を考慮した3次元物体検出器の領域外データへの一般化を著しく改善する。
我々は、リアルに損傷を受けた稀な車の合成データセットであるCrashDを提案し、共有する。
論文 参考訳(メタデータ) (2021-12-09T08:50:54Z) - DeepPoint: A Deep Learning Model for 3D Reconstruction in Point Clouds
via mmWave Radar [10.119506666546663]
本稿では,3次元オブジェクトをポイントクラウド形式で生成するディープラーニングモデルであるDeepPointを紹介する。
3DRIMRのStage 1で生成されたオブジェクトの2D深度画像を入力として、オブジェクトの滑らかで密度の高い3D点雲を出力する。
実験により,本モデルが元の3DRIMRや他の標準技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-09-19T18:28:20Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z) - Deep Learning on Radar Centric 3D Object Detection [4.822598110892847]
レーダーのみを用いた3次元物体検出に深層学習手法を導入する。
レーダラベル付きデータの欠如を克服するために,豊富なLiDARデータを利用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-27T10:16:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。