論文の概要: PV-RCNN++: Point-Voxel Feature Set Abstraction With Local Vector
Representation for 3D Object Detection
- arxiv url: http://arxiv.org/abs/2102.00463v1
- Date: Sun, 31 Jan 2021 14:51:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 16:32:18.244596
- Title: PV-RCNN++: Point-Voxel Feature Set Abstraction With Local Vector
Representation for 3D Object Detection
- Title(参考訳): PV-RCNN++: 3次元物体検出のための局所ベクトル表現による点-Voxel特徴集合の抽象化
- Authors: Shaoshuai Shi, Li Jiang, Jiajun Deng, Zhe Wang, Chaoxu Guo, Jianping
Shi, Xiaogang Wang, Hongsheng Li
- Abstract要約: 点雲からの正確な3次元検出を行うために,PointVoxel Region based Convolution Neural Networks (PVRCNNs)を提案する。
提案するPV-RCNNは,Openデータセットと高競争性KITTIベンチマークの両方において,従来の最先端3D検出方法よりも大幅に優れていた。
- 参考スコア(独自算出の注目度): 100.60209139039472
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 3D object detection is receiving increasing attention from both industry and
academia thanks to its wide applications in various fields. In this paper, we
propose the Point-Voxel Region based Convolution Neural Networks (PV-RCNNs) for
accurate 3D detection from point clouds. First, we propose a novel 3D object
detector, PV-RCNN-v1, which employs the voxel-to-keypoint scene encoding and
keypoint-to-grid RoI feature abstraction two novel steps. These two steps
deeply incorporate both 3D voxel CNN and PointNet-based set abstraction for
learning discriminative point-cloud features. Second, we propose a more
advanced framework, PV-RCNN-v2, for more efficient and accurate 3D detection.
It consists of two major improvements, where the first one is the sectorized
proposal-centric strategy for efficiently producing more representative and
uniformly distributed keypoints, and the second one is the VectorPool
aggregation to replace set abstraction for better aggregating local point-cloud
features with much less resource consumption. With these two major
modifications, our PV-RCNN-v2 runs more than twice as fast as the v1 version
while still achieving better performance on the large-scale Waymo Open Dataset
with 150m * 150m detection range. Extensive experiments demonstrate that our
proposed PV-RCNNs significantly outperform previous state-of-the-art 3D
detection methods on both the Waymo Open Dataset and the highly-competitive
KITTI benchmark.
- Abstract(参考訳): 3dオブジェクト検出は、さまざまな分野の幅広い応用により、業界とアカデミアの両方から注目を集めている。
本稿では,点雲から正確な3次元検出を行うために,ポイント・ボクセル領域に基づく畳み込みニューラルネットワーク(PV-RCNN)を提案する。
まず,Voxel-to-keypoint シーンエンコーディングとkeypoint-to-grid RoI 機能抽象化を用いた新しい3Dオブジェクト検出器 PV-RCNN-v1 を提案する。
この2つのステップは、3D voxel CNNとPointNetベースのセット抽象化を深く取り入れ、識別ポイントクラウド機能を学びます。
第2に,より効率的かつ正確な3D検出のための,より高度なフレームワークであるPV-RCNN-v2を提案する。
ひとつは,より代表的かつ一様に分散したキーポイントを効率的に生成するための,セクタライズドプロポーザル中心の戦略,もうひとつは,リソース消費量をはるかに少なくしたローカルポイントクラウド機能の集約性を向上するために,セット抽象化を置き換えるためのvectorpoolアグリゲーションである。
この2つの大きな変更により、当社のPV-RCNN-v2はv1バージョンの2倍以上の速度で動作し、150m×150mの大規模なWaymo Open Datasetでも性能が向上しています。
提案したPV-RCNNは、Waymo Open Datasetと高競争性KITTIベンチマークの両方において、従来の最先端3D検出方法よりも大幅に優れていた。
関連論文リスト
- PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - Pillar R-CNN for Point Cloud 3D Object Detection [4.169126928311421]
我々はPillar R-CNNという概念的にシンプルで効果的な2段階の3D検出アーキテクチャを考案した。
我々のPillar R-CNNは、大規模Openデータセット上の最先端の3D検出器に対して好意的に動作します。
自律運転を含むアプリケーションに対するBEVのさらなる認識は、効果的でエレガントなPillar R-CNNアーキテクチャのおかげで可能になった。
論文 参考訳(メタデータ) (2023-02-26T12:07:25Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - Graph R-CNN: Towards Accurate 3D Object Detection with
Semantic-Decorated Local Graph [26.226885108862735]
2段検出器は3次元物体検出で大いに人気を博している。
ほとんどの2段式3D検出器は、2段目のRoI特徴抽出にグリッドポイント、ボクセルグリッド、またはサンプルキーポイントを利用する。
本稿ではこの問題を3つの側面で解決する。
論文 参考訳(メタデータ) (2022-08-07T02:56:56Z) - PiFeNet: Pillar-Feature Network for Real-Time 3D Pedestrian Detection
from Point Cloud [64.12626752721766]
点雲からの歩行者検出に有効なリアルタイム3D検出器であるPiFeNetを提案する。
歩行者を検知する際の3次元物体検出フレームワークが直面する課題として, 柱の特徴の少ない点と, 点群における歩行者の占有面積の小さい点があげられる。
提案手法は,26fps/秒(FPS)で走行しながら,KITTI歩行者BEVと3Dリーダーボードで第1位にランクされ,Nuscenes検出ベンチマークの最先端性能を実現している。
論文 参考訳(メタデータ) (2021-12-31T13:41:37Z) - Voxel R-CNN: Towards High Performance Voxel-based 3D Object Detection [99.16162624992424]
Voxel R-CNNというシンプルで効果的なVoxelベースのフレームワークを考案しました。
2段階のアプローチでボクセルの特徴をフル活用することにより,最先端の点ベースモデルと同等の精度で検出できる。
その結果、Voxel R-CNNは、NVIDIA 2080 Ti GPU上での25 FPSの速度で、リアルタイムフレーム処理速度を維持しながら、より高い検出精度を提供する。
論文 参考訳(メタデータ) (2020-12-31T17:02:46Z) - RangeRCNN: Towards Fast and Accurate 3D Object Detection with Range
Image Representation [35.6155506566957]
RangeRCNNは、レンジ画像表現に基づく、新しく効果的な3Dオブジェクト検出フレームワークである。
本稿では,拡張残差ブロック(DRB)を用いて,異なる物体スケールを適応させ,よりフレキシブルな受容場を得る。
実験によると、RangeRCNNはKITTIデータセットとOpenデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-09-01T03:28:13Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。