論文の概要: PV-RCNN++: Semantical Point-Voxel Feature Interaction for 3D Object
Detection
- arxiv url: http://arxiv.org/abs/2208.13414v1
- Date: Mon, 29 Aug 2022 08:14:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 14:05:04.638459
- Title: PV-RCNN++: Semantical Point-Voxel Feature Interaction for 3D Object
Detection
- Title(参考訳): pv-rcnn++: 3dオブジェクト検出のための意味論的ポイントボクセル機能インタラクション
- Authors: Peng Wu, Lipeng Gu, Xuefeng Yan, Haoran Xie, Fu Lee Wang, Gary Cheng,
Mingqiang Wei
- Abstract要約: 本稿では,PV-RCNN++と呼ばれる意味的特徴相互作用を用いた新しいオブジェクト検出ネットワークを提案する。
KITTIデータセットの実験によると、PV-RCNN++は81.60$%$, 40.18$%$, 68.21$%$ 3D mAP on Car, Pedestrian, Cyclistで達成され、最先端技術と同等またはそれ以上のパフォーマンスを達成した。
- 参考スコア(独自算出の注目度): 22.6659359032306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large imbalance often exists between the foreground points (i.e., objects)
and the background points in outdoor LiDAR point clouds. It hinders
cutting-edge detectors from focusing on informative areas to produce accurate
3D object detection results. This paper proposes a novel object detection
network by semantical point-voxel feature interaction, dubbed PV-RCNN++. Unlike
most of existing methods, PV-RCNN++ explores the semantic information to
enhance the quality of object detection. First, a semantic segmentation module
is proposed to retain more discriminative foreground keypoints. Such a module
will guide our PV-RCNN++ to integrate more object-related point-wise and
voxel-wise features in the pivotal areas. Then, to make points and voxels
interact efficiently, we utilize voxel query based on Manhattan distance to
quickly sample voxel-wise features around keypoints. Such the voxel query will
reduce the time complexity from O(N) to O(K), compared to the ball query.
Further, to avoid being stuck in learning only local features, an
attention-based residual PointNet module is designed to expand the receptive
field to adaptively aggregate the neighboring voxel-wise features into
keypoints. Extensive experiments on the KITTI dataset show that PV-RCNN++
achieves 81.60$\%$, 40.18$\%$, 68.21$\%$ 3D mAP on Car, Pedestrian, and
Cyclist, achieving comparable or even better performance to the
state-of-the-arts.
- Abstract(参考訳): 大規模な不均衡は、しばしば前景点(すなわちオブジェクト)と屋外のLiDAR点雲の背景点の間に存在する。
最先端の検出器が情報領域に集中して正確な3Dオブジェクト検出結果を生成するのを妨げる。
本稿では,PV-RCNN++と呼ばれる意味的特徴相互作用を用いた新しいオブジェクト検出ネットワークを提案する。
既存のほとんどのメソッドとは異なり、PV-RCNN++はオブジェクト検出の品質を高めるために意味情報を探索する。
まず、より識別的な前景キーポイントを保持するために意味セグメンテーションモジュールを提案する。
このようなモジュールは、PV-RCNN++をガイドして、よりオブジェクト関連のポイントワイドとボクセルワイド機能を重要な領域に統合します。
そこで,マンハッタン距離に基づくボクセルクエリを用いて,キーポイント周辺のボクセル的特徴を迅速にサンプリングする。
このようなボクセルクエリは、ボールクエリと比較して、O(N) から O(K) への時間的複雑さを減少させる。
さらに、局所的特徴のみを学習するのを避けるため、注意に基づく残差点ネットモジュールは、受動場を拡張し、隣り合うボクセル的な特徴をキーポイントに適応的に集約するように設計されている。
KITTIデータセットの大規模な実験によると、PV-RCNN++は81.60$\%$, 40.18$\%$, 68.21$\%$ 3D mAP on Car, Pedestrian, Cyclistで達成され、最先端技術に匹敵するあるいはそれ以上のパフォーマンスを達成した。
関連論文リスト
- Multi-scale Feature Fusion with Point Pyramid for 3D Object Detection [18.41721888099563]
本稿では,POP-RCNN(Point Pyramid RCNN)を提案する。
提案手法は, 様々な既存フレームワークに適用して, 特に長距離検出において, 特徴の豊かさを高めることができる。
論文 参考訳(メタデータ) (2024-09-06T20:13:14Z) - PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - PVT-SSD: Single-Stage 3D Object Detector with Point-Voxel Transformer [75.2251801053839]
単段3次元検出用ポイント・ボクセル変換器(PVT-SSD)を提案する。
本稿では,voxel から長時間のコンテキストを安価に取得できる Point-Voxel Transformer (PVT) モジュールを提案する。
いくつかの自律走行ベンチマーク実験は,提案手法の有効性と有効性を検証する。
論文 参考訳(メタデータ) (2023-05-11T07:37:15Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - 3D Object Detection Combining Semantic and Geometric Features from Point
Clouds [19.127930862527666]
そこで本研究では,SGNetと呼ばれる2次元物体検出装置を提案する。
VTPMはVoxel-Point-Based Moduleであり、最終的に点空間で3Dオブジェクト検出を実装している。
2021年9月19日時点で、KITTIデータセットでは、SGNetは、難易度の高いサイクリストの3DおよびBEV検出で1位、適度なサイクリストの3D検出では2位であった。
論文 参考訳(メタデータ) (2021-10-10T04:43:27Z) - VIN: Voxel-based Implicit Network for Joint 3D Object Detection and
Segmentation for Lidars [12.343333815270402]
統合ニューラルネットワーク構造は、ジョイント3Dオブジェクト検出とポイントクラウドセグメンテーションのために提示される。
私たちは、検出ラベルとセグメンテーションラベルの両方からの豊富な監視を活用しています。
論文 参考訳(メタデータ) (2021-07-07T02:16:20Z) - PV-RCNN++: Point-Voxel Feature Set Abstraction With Local Vector
Representation for 3D Object Detection [100.60209139039472]
点雲からの正確な3次元検出を行うために,PointVoxel Region based Convolution Neural Networks (PVRCNNs)を提案する。
提案するPV-RCNNは,Openデータセットと高競争性KITTIベンチマークの両方において,従来の最先端3D検出方法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-01-31T14:51:49Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。