論文の概要: PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection
- arxiv url: http://arxiv.org/abs/1912.13192v2
- Date: Fri, 9 Apr 2021 06:37:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 20:44:06.988000
- Title: PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection
- Title(参考訳): pv-rcnn: 3dオブジェクト検出のためのpoint-voxel機能セット抽象化
- Authors: Shaoshuai Shi, Chaoxu Guo, Li Jiang, Zhe Wang, Jianping Shi, Xiaogang
Wang, Hongsheng Li
- Abstract要約: 我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
- 参考スコア(独自算出の注目度): 76.30585706811993
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present a novel and high-performance 3D object detection framework, named
PointVoxel-RCNN (PV-RCNN), for accurate 3D object detection from point clouds.
Our proposed method deeply integrates both 3D voxel Convolutional Neural
Network (CNN) and PointNet-based set abstraction to learn more discriminative
point cloud features. It takes advantages of efficient learning and
high-quality proposals of the 3D voxel CNN and the flexible receptive fields of
the PointNet-based networks. Specifically, the proposed framework summarizes
the 3D scene with a 3D voxel CNN into a small set of keypoints via a novel
voxel set abstraction module to save follow-up computations and also to encode
representative scene features. Given the high-quality 3D proposals generated by
the voxel CNN, the RoI-grid pooling is proposed to abstract proposal-specific
features from the keypoints to the RoI-grid points via keypoint set abstraction
with multiple receptive fields. Compared with conventional pooling operations,
the RoI-grid feature points encode much richer context information for
accurately estimating object confidences and locations. Extensive experiments
on both the KITTI dataset and the Waymo Open dataset show that our proposed
PV-RCNN surpasses state-of-the-art 3D detection methods with remarkable margins
by using only point clouds. Code is available at
https://github.com/open-mmlab/OpenPCDet.
- Abstract(参考訳): 本稿では,点雲からの高精度3次元物体検出のための新しい高性能3次元物体検出フレームワークであるPointVoxel-RCNN(PV-RCNN)を提案する。
提案手法は,3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化を深く統合し,より識別的な点クラウド特徴を学習する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブルな受容場を利用する。
具体的には,3次元のボクセルCNNを用いて3次元シーンを,新しいボクセル集合抽象モジュールを通じて小さなキーポイントの集合にまとめ,フォローアップ計算を保存し,代表シーンの特徴を符号化する。
ボクセルCNNが生成する高品質な3Dプロポーザルを考慮に入れ、ロイグリッドプーリングは、キーポイントから複数の受容場を持つキーポイントセット抽象化を介してロイグリッドポイントまで、提案固有の特徴を抽象化するために提案される。
従来のプール操作と比較すると、RoI-grid機能ポイントはよりリッチなコンテキスト情報を符号化し、オブジェクトの信頼度や位置を正確に推定する。
KITTIデータセットとWaymo Openデータセットの両方での大規模な実験により、提案したPV-RCNNは、ポイントクラウドのみを用いることで、最先端の3D検出方法をはるかに上回っていることがわかった。
コードはhttps://github.com/open-mmlab/openpcdetで入手できる。
関連論文リスト
- Pillar R-CNN for Point Cloud 3D Object Detection [4.169126928311421]
我々はPillar R-CNNという概念的にシンプルで効果的な2段階の3D検出アーキテクチャを考案した。
我々のPillar R-CNNは、大規模Openデータセット上の最先端の3D検出器に対して好意的に動作します。
自律運転を含むアプリケーションに対するBEVのさらなる認識は、効果的でエレガントなPillar R-CNNアーキテクチャのおかげで可能になった。
論文 参考訳(メタデータ) (2023-02-26T12:07:25Z) - From Voxel to Point: IoU-guided 3D Object Detection for Point Cloud with
Voxel-to-Point Decoder [79.39041453836793]
We present an Intersection-over-Union (IoU) guided two-stage 3D object detector with a voxel-to-point decoder。
本稿では,Voxel based Region Proposal Network (RPN) からマップビュー機能に加えて,点特徴を抽出する残余のvoxel-to-pointデコーダを提案する。
そこで本研究では,推定したIoUと改良された提案ボックスをより関連性の高いローカライゼーション信頼度として整列する,簡便で効率的な手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T14:30:13Z) - From Multi-View to Hollow-3D: Hallucinated Hollow-3D R-CNN for 3D Object
Detection [101.20784125067559]
本稿では,3次元物体検出の問題に対処するため,Halucinated Hollow-3D R-CNNという新しいアーキテクチャを提案する。
本稿では,まず,視点ビューと鳥眼ビューに点雲を逐次投影することで,多視点特徴を抽出する。
3Dオブジェクトは、新しい階層型Voxel RoIプール操作でボックスリファインメントモジュールを介して検出される。
論文 参考訳(メタデータ) (2021-07-30T02:00:06Z) - PV-RCNN++: Point-Voxel Feature Set Abstraction With Local Vector
Representation for 3D Object Detection [100.60209139039472]
点雲からの正確な3次元検出を行うために,PointVoxel Region based Convolution Neural Networks (PVRCNNs)を提案する。
提案するPV-RCNNは,Openデータセットと高競争性KITTIベンチマークの両方において,従来の最先端3D検出方法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-01-31T14:51:49Z) - Voxel R-CNN: Towards High Performance Voxel-based 3D Object Detection [99.16162624992424]
Voxel R-CNNというシンプルで効果的なVoxelベースのフレームワークを考案しました。
2段階のアプローチでボクセルの特徴をフル活用することにより,最先端の点ベースモデルと同等の精度で検出できる。
その結果、Voxel R-CNNは、NVIDIA 2080 Ti GPU上での25 FPSの速度で、リアルタイムフレーム処理速度を維持しながら、より高い検出精度を提供する。
論文 参考訳(メタデータ) (2020-12-31T17:02:46Z) - Local Grid Rendering Networks for 3D Object Detection in Point Clouds [98.02655863113154]
CNNは強力だが、全点の雲を高密度の3Dグリッドに酸化した後、点データに直接畳み込みを適用するのは計算コストがかかる。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングする,新しい,原理化されたローカルグリッドレンダリング(LGR)演算を提案する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
論文 参考訳(メタデータ) (2020-07-04T13:57:43Z) - Stereo RGB and Deeper LIDAR Based Network for 3D Object Detection [40.34710686994996]
3Dオブジェクト検出は、自動運転のシナリオにおいて新たな課題となっている。
以前の作業では、プロジェクションベースまたはボクセルベースのモデルを使用して3Dポイントクラウドを処理していた。
本稿では,意味情報と空間情報の同時利用が可能なStereo RGBおよびDeeper LIDARフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-09T11:19:24Z) - Pointwise Attention-Based Atrous Convolutional Neural Networks [15.499267533387039]
多数の点を効率的に扱うために,注目度に基づくアトラス畳み込みニューラルネットワークアーキテクチャを提案する。
提案モデルは,3次元セマンティックセグメンテーションタスクにおいて,最も重要な2つの3Dポイントクラウドデータセット上で評価されている。
精度の面では最先端モデルと比較して妥当な性能を達成し、パラメータの数ははるかに少ない。
論文 参考訳(メタデータ) (2019-12-27T13:12:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。