論文の概要: Multi Voxel-Point Neurons Convolution (MVPConv) for Fast and Accurate 3D
Deep Learning
- arxiv url: http://arxiv.org/abs/2104.14834v1
- Date: Fri, 30 Apr 2021 08:36:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 13:39:38.769279
- Title: Multi Voxel-Point Neurons Convolution (MVPConv) for Fast and Accurate 3D
Deep Learning
- Title(参考訳): 高速かつ高精度な3Dディープラーニングのためのマルチボクセルポイントニューロン畳み込み(MVPConv)
- Authors: Wei Zhou, Xin Cao, Xiaodan Zhang, Xingxing Hao, Dekui Wang, Ying He
- Abstract要約: 3D深層学習のための新しい畳み込みニューラルネットワーク Multi Voxel-Point Neurons Convolution (MVPConv) を提案する。
mvpconvはバックボーン(pointnet)の精度を最大36%向上させ、34倍のスピードアップでvoxelベースのモデルよりも高い精度を実現している。
- 参考スコア(独自算出の注目度): 17.34056224024285
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a new convolutional neural network, called Multi Voxel-Point
Neurons Convolution (MVPConv), for fast and accurate 3D deep learning. The
previous works adopt either individual point-based features or
local-neighboring voxel-based features to process 3D model, which limits the
performance of models due to the inefficient computation. Moreover, most of the
existing 3D deep learning frameworks aim at solving one specific task, and only
a few of them can handle a variety of tasks. Integrating both the advantages of
the voxel and point-based methods, the proposed MVPConv can effectively
increase the neighboring collection between point-based features and also
promote the independence among voxel-based features. Simply replacing the
corresponding convolution module with MVPConv, we show that MVPConv can fit in
different backbones to solve a wide range of 3D tasks. Extensive experiments on
benchmark datasets such as ShapeNet Part, S3DIS and KITTI for various tasks
show that MVPConv improves the accuracy of the backbone (PointNet) by up to
36%, and achieves higher accuracy than the voxel-based model with up to 34
times speedup. In addition, MVPConv also outperforms the state-of-the-art
point-based models with up to 8 times speedup. Notably, our MVPConv achieves
better accuracy than the newest point-voxel-based model PVCNN (a model more
efficient than PointNet) with lower latency.
- Abstract(参考訳): 我々は,高速かつ正確な3Dディープラーニングを実現するために,Multi Voxel-Point Neurons Convolution (MVPConv)と呼ばれる新しい畳み込みニューラルネットワークを提案する。
従来の研究では、個々の点ベースの特徴や、近隣のボクセルベースの特徴をプロセス3Dモデルに採用しており、非効率な計算によってモデルの性能が制限されている。
さらに、既存の3Dディープラーニングフレームワークのほとんどは、1つの特定のタスクを解決することを目標としています。
提案したMVPConvは,ボクセル法と点ベース法の両方の利点を統合することで,点ベースの特徴間の隣り合うコレクションを効果的に増加させ,ボクセルベースの特徴間の独立性を促進する。
MVPConvは、対応する畳み込みモジュールをMVPConvに置き換えるだけで、さまざまなバックボーンに適合して、幅広い3Dタスクを解決できることを示す。
様々なタスクのためのshapenet part、s3dis、kittiなどのベンチマークデータセットに関する広範な実験により、mvpconvはバックボーン(pointnet)の精度を最大36%向上させ、最大34倍のスピードアップでvoxelベースのモデルよりも高い精度を実現していることが示された。
加えて、mvpconvは最高8倍のスピードアップで最先端のポイントベースモデルを上回る。
特に、MVPConvは、最新のポイントボクセルベースモデルであるPVCNN(PointNetよりも効率的なモデル)よりもレイテンシの低い精度を実現しています。
関連論文リスト
- fVDB: A Deep-Learning Framework for Sparse, Large-Scale, and High-Performance Spatial Intelligence [50.417261057533786]
fVDBは、大規模な3Dデータのディープラーニングのための新しいフレームワークである。
私たちのフレームワークは、既存のパイプラインとの相互運用性を可能にするPyTorchと完全に統合されています。
論文 参考訳(メタデータ) (2024-07-01T20:20:33Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - Multi Point-Voxel Convolution (MPVConv) for Deep Learning on Point
Clouds [17.34056224024285]
本稿では,マルチポイント・ボクセル・コンボリューション(MPVConv)と呼ばれる新しい畳み込みニューラルネットワークを提案する。
マルチポイント・ボクセル・コンボリューション(Multi Point-Voxel Convolution)は,最大でtextbf36% のバックボーン(PointNet)の精度を向上し,最大で textbf34 タイムの高速化が可能なボクセルベースモデルよりも高い精度を実現する。
論文 参考訳(メタデータ) (2021-07-28T03:42:59Z) - 3D Point Cloud Registration with Multi-Scale Architecture and
Self-supervised Fine-tuning [5.629161809575013]
MS-SVConvは、2つのシーン間の3D登録のためにポイントクラウドから機能を出力する高速マルチスケールディープニューラルネットワークです。
競合的かつよく知られた3DMatchベンチマークでは,最先端の手法と比較して,大幅な改善が見られた。
我々は,未知のデータセットを自己管理的に微調整し,ETHおよびTUMデータセットの最先端結果をもたらす戦略を提案する。
論文 参考訳(メタデータ) (2021-03-26T15:38:33Z) - PV-RCNN++: Point-Voxel Feature Set Abstraction With Local Vector
Representation for 3D Object Detection [100.60209139039472]
点雲からの正確な3次元検出を行うために,PointVoxel Region based Convolution Neural Networks (PVRCNNs)を提案する。
提案するPV-RCNNは,Openデータセットと高競争性KITTIベンチマークの両方において,従来の最先端3D検出方法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-01-31T14:51:49Z) - Voxel R-CNN: Towards High Performance Voxel-based 3D Object Detection [99.16162624992424]
Voxel R-CNNというシンプルで効果的なVoxelベースのフレームワークを考案しました。
2段階のアプローチでボクセルの特徴をフル活用することにより,最先端の点ベースモデルと同等の精度で検出できる。
その結果、Voxel R-CNNは、NVIDIA 2080 Ti GPU上での25 FPSの速度で、リアルタイムフレーム処理速度を維持しながら、より高い検出精度を提供する。
論文 参考訳(メタデータ) (2020-12-31T17:02:46Z) - MVTN: Multi-View Transformation Network for 3D Shape Recognition [80.34385402179852]
本稿では,3次元形状認識のための最適視点を回帰するマルチビュー変換ネットワーク(MVTN)を提案する。
MVTNは3次元形状分類のためのマルチビューネットワークと共に、エンドツーエンドで訓練することができる。
MVTNは3次元形状分類と3次元形状検索のタスクにおいて、余分な訓練監督を必要とせず、明らかな性能向上を示す。
論文 参考訳(メタデータ) (2020-11-26T11:33:53Z) - DV-ConvNet: Fully Convolutional Deep Learning on Point Clouds with
Dynamic Voxelization and 3D Group Convolution [0.7340017786387767]
3次元点雲の解釈は、成分点のランダム性と空間性のために難しい課題である。
本研究では,効率的な3Dポイントクラウド解釈に向けて,標準的な3Dコンボリューションに注意を向ける。
我々のネットワークは、非常に高速に動作し、収束することができるが、いくつかのベンチマークデータセットの最先端の手法と比較して、オンパーまたはさらにパフォーマンスが向上する。
論文 参考訳(メタデータ) (2020-09-07T07:45:05Z) - Searching Efficient 3D Architectures with Sparse Point-Voxel Convolution [34.713667358316286]
自動運転車は安全に運転するために、3Dシーンを効率的に正確に理解する必要がある。
既存の3次元知覚モデルは、低解像度のボキセル化とアグレッシブなダウンサンプリングのために、小さなインスタンスを十分に認識できない。
Sparse Point-Voxel Convolution (SPVConv) は,バニラ・スパース・コンボリューションを高分解能な点ベース分岐に装備する軽量な3次元モジュールである。
論文 参考訳(メタデータ) (2020-07-31T14:27:27Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。