論文の概要: Multi Point-Voxel Convolution (MPVConv) for Deep Learning on Point
Clouds
- arxiv url: http://arxiv.org/abs/2107.13152v1
- Date: Wed, 28 Jul 2021 03:42:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 22:58:17.657279
- Title: Multi Point-Voxel Convolution (MPVConv) for Deep Learning on Point
Clouds
- Title(参考訳): 点雲深層学習のためのマルチポイント・ボクセル・コンボリューション(MPVConv)
- Authors: Wei Zhou, Xin Cao, Xiaodan Zhang, Xingxing Hao, Dekui Wang, Ying He
- Abstract要約: 本稿では,マルチポイント・ボクセル・コンボリューション(MPVConv)と呼ばれる新しい畳み込みニューラルネットワークを提案する。
マルチポイント・ボクセル・コンボリューション(Multi Point-Voxel Convolution)は,最大でtextbf36% のバックボーン(PointNet)の精度を向上し,最大で textbf34 タイムの高速化が可能なボクセルベースモデルよりも高い精度を実現する。
- 参考スコア(独自算出の注目度): 17.34056224024285
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The existing 3D deep learning methods adopt either individual point-based
features or local-neighboring voxel-based features, and demonstrate great
potential for processing 3D data. However, the point based models are
inefficient due to the unordered nature of point clouds and the voxel-based
models suffer from large information loss. Motivated by the success of recent
point-voxel representation, such as PVCNN, we propose a new convolutional
neural network, called Multi Point-Voxel Convolution (MPVConv), for deep
learning on point clouds. Integrating both the advantages of voxel and
point-based methods, MPVConv can effectively increase the neighboring
collection between point-based features and also promote independence among
voxel-based features. Moreover, most of the existing approaches aim at solving
one specific task, and only a few of them can handle a variety of tasks. Simply
replacing the corresponding convolution module with MPVConv, we show that
MPVConv can fit in different backbones to solve a wide range of 3D tasks.
Extensive experiments on benchmark datasets such as ShapeNet Part, S3DIS and
KITTI for various tasks show that MPVConv improves the accuracy of the backbone
(PointNet) by up to \textbf{36\%}, and achieves higher accuracy than the
voxel-based model with up to \textbf{34}$\times$ speedups. In addition, MPVConv
outperforms the state-of-the-art point-based models with up to
\textbf{8}$\times$ speedups. Notably, our MPVConv achieves better accuracy than
the newest point-voxel-based model PVCNN (a model more efficient than PointNet)
with lower latency.
- Abstract(参考訳): 既存の3D深層学習手法では,個々の点に基づく特徴や,近隣のボクセルベースの特徴が採用されている。
しかし、点ベースのモデルは、点雲の秩序のない性質のため非効率であり、ボクセルベースのモデルは大きな情報損失に悩まされる。
PVCNNのような最近のポイントボクセル表現の成功により、我々は、ポイントクラウド上でのディープラーニングのための、Multi Point-Voxel Convolution (MPVConv)と呼ばれる新しい畳み込みニューラルネットワークを提案する。
ボクセル法と点ベース法の両方の利点を統合することで、MPVConvは点ベース機能間の隣り合うコレクションを効果的に増やし、ボクセルベースの機能間の独立性を促進することができる。
さらに、既存のアプローチのほとんどは、ひとつの特定のタスクを解決することを目的としており、それらのうち、さまざまなタスクを処理できるものはごくわずかである。
対応する畳み込みモジュールをMPVConvに置き換えるだけで、MPVConvは様々なバックボーンに収まり、幅広い3Dタスクを解くことができる。
ShapeNet Part、S3DIS、KITTIといった様々なタスクのベンチマークデータセットに対する大規模な実験により、MPVConvは背骨(PointNet)の精度を \textbf{36\%} まで改善し、最大 \textbf{34}$\times$ Speedups までのボクセルベースモデルよりも高い精度を実現している。
さらにmpvconvは、最大で \textbf{8}$\times$ speedupsで最先端のポイントベースモデルを上回る。
特にMPVConvは、最新のポイントボクセルベースモデルであるPVCNN(PointNetよりも高速なモデル)よりもレイテンシの低い精度を実現しています。
関連論文リスト
- PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - Mini-PointNetPlus: a local feature descriptor in deep learning model for
3d environment perception [7.304195370862869]
そこで我々は,PointNet へのプラグイン・アンド・プレイの代替として,新しいローカル機能記述子 mini-PointNetPlus を提案する。
我々の基本的な考え方は、データポイントを考慮された個々の特徴に別々に投影することであり、それぞれが置換不変となる。
提案する記述子の特徴を十分に活用するため,3次元知覚の性能向上実験を行った。
論文 参考訳(メタデータ) (2023-07-25T07:30:28Z) - PVT-SSD: Single-Stage 3D Object Detector with Point-Voxel Transformer [75.2251801053839]
単段3次元検出用ポイント・ボクセル変換器(PVT-SSD)を提案する。
本稿では,voxel から長時間のコンテキストを安価に取得できる Point-Voxel Transformer (PVT) モジュールを提案する。
いくつかの自律走行ベンチマーク実験は,提案手法の有効性と有効性を検証する。
論文 参考訳(メタデータ) (2023-05-11T07:37:15Z) - Voint Cloud: Multi-View Point Cloud Representation for 3D Understanding [80.04281842702294]
本稿では,複数の視点から抽出した特徴の集合として,各3次元点を表す多視点クラウド(Voint Cloud)の概念を紹介する。
この新しい3次元Vointクラウド表現は、3Dポイントクラウド表現のコンパクト性と、マルチビュー表現の自然なビュー認識性を組み合わせたものである。
理論的に確立された機能を持つVointニューラルネットワーク(VointNet)をデプロイし,Voint空間の表現を学習する。
論文 参考訳(メタデータ) (2021-11-30T13:08:19Z) - Learning point embedding for 3D data processing [2.12121796606941]
現在の点ベース法は本質的に空間関係処理ネットワークである。
PE-Netは高次元空間における点雲の表現を学習する。
実験によると、PE-Netは複数の挑戦的なデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-07-19T00:25:28Z) - Multi Voxel-Point Neurons Convolution (MVPConv) for Fast and Accurate 3D
Deep Learning [17.34056224024285]
3D深層学習のための新しい畳み込みニューラルネットワーク Multi Voxel-Point Neurons Convolution (MVPConv) を提案する。
mvpconvはバックボーン(pointnet)の精度を最大36%向上させ、34倍のスピードアップでvoxelベースのモデルよりも高い精度を実現している。
論文 参考訳(メタデータ) (2021-04-30T08:36:03Z) - RPVNet: A Deep and Efficient Range-Point-Voxel Fusion Network for LiDAR
Point Cloud Segmentation [28.494690309193068]
RPVNetと呼ばれる、新しいレンジポイント・ボクセル融合ネットワークを提案する。
このネットワークでは,これら3つの視点を相互に相互に相互作用する深層融合フレームワークを考案する。
この効率的な相互作用と比較的低いボクセル解像度を利用することで、より効率的であることが証明された。
論文 参考訳(メタデータ) (2021-03-24T04:24:12Z) - PV-RCNN++: Point-Voxel Feature Set Abstraction With Local Vector
Representation for 3D Object Detection [100.60209139039472]
点雲からの正確な3次元検出を行うために,PointVoxel Region based Convolution Neural Networks (PVRCNNs)を提案する。
提案するPV-RCNNは,Openデータセットと高競争性KITTIベンチマークの両方において,従来の最先端3D検出方法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-01-31T14:51:49Z) - MVTN: Multi-View Transformation Network for 3D Shape Recognition [80.34385402179852]
本稿では,3次元形状認識のための最適視点を回帰するマルチビュー変換ネットワーク(MVTN)を提案する。
MVTNは3次元形状分類のためのマルチビューネットワークと共に、エンドツーエンドで訓練することができる。
MVTNは3次元形状分類と3次元形状検索のタスクにおいて、余分な訓練監督を必要とせず、明らかな性能向上を示す。
論文 参考訳(メタデータ) (2020-11-26T11:33:53Z) - DV-ConvNet: Fully Convolutional Deep Learning on Point Clouds with
Dynamic Voxelization and 3D Group Convolution [0.7340017786387767]
3次元点雲の解釈は、成分点のランダム性と空間性のために難しい課題である。
本研究では,効率的な3Dポイントクラウド解釈に向けて,標準的な3Dコンボリューションに注意を向ける。
我々のネットワークは、非常に高速に動作し、収束することができるが、いくつかのベンチマークデータセットの最先端の手法と比較して、オンパーまたはさらにパフォーマンスが向上する。
論文 参考訳(メタデータ) (2020-09-07T07:45:05Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。