論文の概要: PG-RCNN: Semantic Surface Point Generation for 3D Object Detection
- arxiv url: http://arxiv.org/abs/2307.12637v1
- Date: Mon, 24 Jul 2023 09:22:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 14:51:09.548927
- Title: PG-RCNN: Semantic Surface Point Generation for 3D Object Detection
- Title(参考訳): PG-RCNN:3次元物体検出のための意味的表面点生成
- Authors: Inyong Koo, Inyoung Lee, Se-Ho Kim, Hee-Seon Kim, Woo-jin Jeon,
Changick Kim
- Abstract要約: ポイントジェネレーションR-CNN(PG-RCNN)は、3次元物体検出のための新しいエンドツーエンド検出器である。
共同でトレーニングされたRoIポイント生成モジュールを使用して、RoIのコンテキスト情報を処理する。
PG-RCNNは生成された全ての点について、推定された前景確率を示す意味的特徴を割り当てる。
- 参考スコア(独自算出の注目度): 19.341260543105548
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: One of the main challenges in LiDAR-based 3D object detection is that the
sensors often fail to capture the complete spatial information about the
objects due to long distance and occlusion. Two-stage detectors with point
cloud completion approaches tackle this problem by adding more points to the
regions of interest (RoIs) with a pre-trained network. However, these methods
generate dense point clouds of objects for all region proposals, assuming that
objects always exist in the RoIs. This leads to the indiscriminate point
generation for incorrect proposals as well. Motivated by this, we propose Point
Generation R-CNN (PG-RCNN), a novel end-to-end detector that generates semantic
surface points of foreground objects for accurate detection. Our method uses a
jointly trained RoI point generation module to process the contextual
information of RoIs and estimate the complete shape and displacement of
foreground objects. For every generated point, PG-RCNN assigns a semantic
feature that indicates the estimated foreground probability. Extensive
experiments show that the point clouds generated by our method provide
geometrically and semantically rich information for refining false positive and
misaligned proposals. PG-RCNN achieves competitive performance on the KITTI
benchmark, with significantly fewer parameters than state-of-the-art models.
The code is available at https://github.com/quotation2520/PG-RCNN.
- Abstract(参考訳): LiDARをベースとした3Dオブジェクト検出の主な課題の1つは、センサーが長い距離と閉塞のためにオブジェクトに関する完全な空間情報をキャプチャできないことである。
点雲完了アプローチを持つ2段階検出器は、事前訓練されたネットワークで関心領域(RoI)により多くの点を追加することでこの問題に対処する。
しかし、これらの手法はすべての領域の提案に対して、常にroisにオブジェクトが存在すると仮定して、オブジェクトの密接な点雲を生成する。
これは、誤った提案に対する不特定点生成にも繋がる。
そこで我々は,前景オブジェクトのセマンティックサーフェスポイントを生成する新しいエンドツーエンド検出器であるポイントジェネレーションR-CNN(PG-RCNN)を提案する。
本手法では,RoIのコンテキスト情報を処理するために共同で訓練されたRoI点生成モジュールを用いて,前景オブジェクトの完全な形状と変位を推定する。
PG-RCNNは生成された全ての点について、推定された前景確率を示す意味的特徴を割り当てる。
広範な実験により,提案手法が生成する点群は,幾何学的かつ意味的にリッチな情報を提供し,偽陽性かつ不一致な提案を精査することを示した。
PG-RCNNは、最先端モデルよりもパラメータが大幅に少ないKITTIベンチマークで競合性能を達成する。
コードはhttps://github.com/quotation2520/PG-RCNNで公開されている。
関連論文リスト
- 3D Cascade RCNN: High Quality Object Detection in Point Clouds [122.42455210196262]
本稿では3次元カスケードRCNNを提案する。これはカスケードパラダイムにおいて、酸化点雲に基づいて複数の検出器を割り当てる。
提案する3次元カスケードRCNNは,最先端の3次元物体検出技術と比較した場合の優位性を検証した。
論文 参考訳(メタデータ) (2022-11-15T15:58:36Z) - PV-RCNN++: Semantical Point-Voxel Feature Interaction for 3D Object
Detection [22.6659359032306]
本稿では,PV-RCNN++と呼ばれる意味的特徴相互作用を用いた新しいオブジェクト検出ネットワークを提案する。
KITTIデータセットの実験によると、PV-RCNN++は81.60$%$, 40.18$%$, 68.21$%$ 3D mAP on Car, Pedestrian, Cyclistで達成され、最先端技術と同等またはそれ以上のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-08-29T08:14:00Z) - ProposalContrast: Unsupervised Pre-training for LiDAR-based 3D Object
Detection [114.54835359657707]
ProposalContrastは、教師なしのポイントクラウド事前トレーニングフレームワークである。
地域提案と対比することで、堅牢な3D表現を学習する。
ProposalContrastは様々な3D検出器で検証される。
論文 参考訳(メタデータ) (2022-07-26T04:45:49Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - 3D Object Detection Combining Semantic and Geometric Features from Point
Clouds [19.127930862527666]
そこで本研究では,SGNetと呼ばれる2次元物体検出装置を提案する。
VTPMはVoxel-Point-Based Moduleであり、最終的に点空間で3Dオブジェクト検出を実装している。
2021年9月19日時点で、KITTIデータセットでは、SGNetは、難易度の高いサイクリストの3DおよびBEV検出で1位、適度なサイクリストの3D検出では2位であった。
論文 参考訳(メタデータ) (2021-10-10T04:43:27Z) - SIENet: Spatial Information Enhancement Network for 3D Object Detection
from Point Cloud [20.84329063509459]
LiDARベースの3Dオブジェクト検出は、自動運転車に大きな影響を与える。
LiDARの固有特性の制限により、センサーから遠く離れた物体において、より少ない点が収集される。
そこで本研究では,SIENetという2段階の3次元物体検出フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T07:45:09Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - ODFNet: Using orientation distribution functions to characterize 3D
point clouds [0.0]
点まわりの点配向分布を利用して、点群の表現力のある局所近傍表現を得ます。
新しい ODFNet モデルは ModelNet40 と ScanObjectNN データセットのオブジェクト分類における最先端の精度を実現する。
論文 参考訳(メタデータ) (2020-12-08T19:54:20Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。