論文の概要: CG-SSD: Corner Guided Single Stage 3D Object Detection from LiDAR Point
Cloud
- arxiv url: http://arxiv.org/abs/2202.11868v1
- Date: Thu, 24 Feb 2022 02:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 16:57:43.588130
- Title: CG-SSD: Corner Guided Single Stage 3D Object Detection from LiDAR Point
Cloud
- Title(参考訳): CG-SSD:LiDAR点雲からの1段3次元物体検出
- Authors: Ruiqi Ma, Chi Chen, Bisheng Yang, Deren Li, Haiping Wang, Yangzi Cong,
Zongtian Hu
- Abstract要約: 現実世界では、LiDARは限られた物体の表面点の雲しか取得できないが、物体の中心点は存在しない。
コーナー誘導型アンカーフリー単段3次元物体検出モデル(CG-SSD)を提案する。
CG-SSDは、単一フレームポイントクラウドデータを用いた教師付き3Dオブジェクト検出のためのONCEベンチマークの最先端性能を実現する。
- 参考スコア(独自算出の注目度): 4.110053032708927
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: At present, the anchor-based or anchor-free models that use LiDAR point
clouds for 3D object detection use the center assigner strategy to infer the 3D
bounding boxes. However, in a real world scene, the LiDAR can only acquire a
limited object surface point clouds, but the center point of the object does
not exist. Obtaining the object by aggregating the incomplete surface point
clouds will bring a loss of accuracy in direction and dimension estimation. To
address this problem, we propose a corner-guided anchor-free single-stage 3D
object detection model (CG-SSD ).Firstly, 3D sparse convolution backbone
network composed of residual layers and sub-manifold sparse convolutional
layers are used to construct bird's eye view (BEV) features for further deeper
feature mining by a lite U-shaped network; Secondly, a novel corner-guided
auxiliary module (CGAM) is proposed to incorporate corner supervision signals
into the neural network. CGAM is explicitly designed and trained to detect
partially visible and invisible corners to obtains a more accurate object
feature representation, especially for small or partial occluded objects;
Finally, the deep features from both the backbone networks and CGAM module are
concatenated and fed into the head module to predict the classification and 3D
bounding boxes of the objects in the scene. The experiments demonstrate CG-SSD
achieves the state-of-art performance on the ONCE benchmark for supervised 3D
object detection using single frame point cloud data, with 62.77%mAP.
Additionally, the experiments on ONCE and Waymo Open Dataset show that CGAM can
be extended to most anchor-based models which use the BEV feature to detect
objects, as a plug-in and bring +1.17%-+14.27%AP improvement.
- Abstract(参考訳): 現在、3dオブジェクト検出にlidar point cloudを使用するアンカーベースまたはアンカーフリーモデルは、センターアサイン戦略を使用して3dバウンディングボックスを推論している。
しかし、現実世界のシーンでは、LiDARは限られた物体表面点の雲しか取得できないが、物体の中心点は存在しない。
不完全な表面点雲を集約して物体を得ると、方向の精度と寸法の推定が失われる。
そこで本研究では,角誘導型アンカーフリー単段3次元物体検出モデル(CG-SSD)を提案する。
まず, 残留層とサブマニフォールド・スパース・コンボリューション層からなる3次元スパース・コンボリューション・バックボーン・ネットワークを用いて, U字型ネットワークによるより深い特徴抽出のための鳥の目視(BEV)機能を構築し, 次に, コーナー誘導補助モジュール(CGAM)をニューラルネットワークに組み込む。
最後に、バックボーンネットワークとCGAMモジュールの深い特徴を結合してヘッドモジュールに入力し、シーン内のオブジェクトの分類と3D境界ボックスを予測する。
実験では、CG-SSDは、62.77%mAPの単一フレームポイントクラウドデータを用いて、教師付き3Dオブジェクト検出のためのONCEベンチマークの最先端性能を実証した。
さらに、ONCEとWaymo Open Datasetの実験では、CGAMをほとんどのアンカーベースモデルに拡張することができ、BEV機能を使用して、プラグインとしてオブジェクトを検出し、+1.17%-+14.27%APの改善をもたらす。
関連論文リスト
- VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - AOP-Net: All-in-One Perception Network for Joint LiDAR-based 3D Object
Detection and Panoptic Segmentation [9.513467995188634]
AOP-NetはLiDARベースのマルチタスクフレームワークで、3Dオブジェクトの検出とパノプティクスのセグメンテーションを組み合わせたものである。
AOP-Netは、nuScenesベンチマークにおける3Dオブジェクト検出とパノプティクスセグメンテーションの両タスクについて、最先端のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-02-02T05:31:53Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - DeepPoint: A Deep Learning Model for 3D Reconstruction in Point Clouds
via mmWave Radar [10.119506666546663]
本稿では,3次元オブジェクトをポイントクラウド形式で生成するディープラーニングモデルであるDeepPointを紹介する。
3DRIMRのStage 1で生成されたオブジェクトの2D深度画像を入力として、オブジェクトの滑らかで密度の高い3D点雲を出力する。
実験により,本モデルが元の3DRIMRや他の標準技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-09-19T18:28:20Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Anchor-free 3D Single Stage Detector with Mask-Guided Attention for
Point Cloud [79.39041453836793]
我々は、点雲をアンカーフリーで検出する新しい1段3次元検出器を開発した。
ボクセルをベースとしたスパース3D特徴量からスパース2D特徴量マップに変換することでこれを克服する。
検出信頼度スコアとバウンディングボックス回帰の精度との相関性を改善するために,IoUに基づく検出信頼度再校正手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T13:42:13Z) - Stereo RGB and Deeper LIDAR Based Network for 3D Object Detection [40.34710686994996]
3Dオブジェクト検出は、自動運転のシナリオにおいて新たな課題となっている。
以前の作業では、プロジェクションベースまたはボクセルベースのモデルを使用して3Dポイントクラウドを処理していた。
本稿では,意味情報と空間情報の同時利用が可能なStereo RGBおよびDeeper LIDARフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-09T11:19:24Z) - LiDAR-based Online 3D Video Object Detection with Graph-based Message
Passing and Spatiotemporal Transformer Attention [100.52873557168637]
3Dオブジェクト検出器は、通常は単一フレームの検出にフォーカスするが、連続する点のクラウドフレームでは情報を無視する。
本稿では,ポイントシーケンスで動作するエンドツーエンドのオンライン3Dビデオオブジェクト検出器を提案する。
論文 参考訳(メタデータ) (2020-04-03T06:06:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。