論文の概要: DV-ConvNet: Fully Convolutional Deep Learning on Point Clouds with
Dynamic Voxelization and 3D Group Convolution
- arxiv url: http://arxiv.org/abs/2009.02918v2
- Date: Tue, 27 Jul 2021 10:10:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 03:06:48.884809
- Title: DV-ConvNet: Fully Convolutional Deep Learning on Point Clouds with
Dynamic Voxelization and 3D Group Convolution
- Title(参考訳): DV-ConvNet: 動的ボクセル化と3Dグループ畳み込みを備えたポイントクラウドでの完全な畳み込み深層学習
- Authors: Zhaoyu Su, Pin Siang Tan, Junkang Chow, Jimmy Wu, Yehur Cheong,
Yu-Hsing Wang
- Abstract要約: 3次元点雲の解釈は、成分点のランダム性と空間性のために難しい課題である。
本研究では,効率的な3Dポイントクラウド解釈に向けて,標準的な3Dコンボリューションに注意を向ける。
我々のネットワークは、非常に高速に動作し、収束することができるが、いくつかのベンチマークデータセットの最先端の手法と比較して、オンパーまたはさらにパフォーマンスが向上する。
- 参考スコア(独自算出の注目度): 0.7340017786387767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D point cloud interpretation is a challenging task due to the randomness and
sparsity of the component points. Many of the recently proposed methods like
PointNet and PointCNN have been focusing on learning shape descriptions from
point coordinates as point-wise input features, which usually involves
complicated network architectures. In this work, we draw attention back to the
standard 3D convolutions towards an efficient 3D point cloud interpretation.
Instead of converting the entire point cloud into voxel representations like
the other volumetric methods, we voxelize the sub-portions of the point cloud
only at necessary locations within each convolution layer on-the-fly, using our
dynamic voxelization operation with self-adaptive voxelization resolution. In
addition, we incorporate 3D group convolution into our dense convolution kernel
implementation to further exploit the rotation invariant features of point
cloud. Benefiting from its simple fully-convolutional architecture, our network
is able to run and converge at a considerably fast speed, while yields on-par
or even better performance compared with the state-of-the-art methods on
several benchmark datasets.
- Abstract(参考訳): 3dポイントクラウド解釈は、コンポーネントポイントのランダム性とスパーシティのため、難しいタスクである。
最近提案されたPointNetやPointCNNのようなメソッドの多くは、ポイント座標からポイントワイド入力機能としての形状記述を学習することに重点を置いている。
本研究では,効率的な3Dポイントクラウド解釈に向けた標準3D畳み込みに注目した。
他の体積法のように点雲全体をボクセル表現に変換する代わりに、自己適応的ボクセル化分解を用いた動的ボクセル化演算を用いて、点雲のサブポーションを各畳み込み層の必要な場所でのみボクセル化する。
さらに、3次元群畳み込みを我々の密集した畳み込みカーネル実装に組み込んで、ポイントクラウドの回転不変機能をさらに活用する。
単純な完全畳み込みアーキテクチャの利点により、ネットワークはかなり高速で実行および収束でき、またいくつかのベンチマークデータセットにおける最先端のメソッドと比較して、ほぼあるいはそれ以上のパフォーマンスを得ることができる。
関連論文リスト
- Dynamic 3D Point Cloud Sequences as 2D Videos [81.46246338686478]
3Dポイントクラウドシーケンスは、現実世界の環境における最も一般的で実用的な表現の1つとして機能する。
textitStructured Point Cloud Videos (SPCV) と呼ばれる新しい汎用表現を提案する。
SPCVは点雲列を空間的滑らかさと時間的一貫性を持つ2Dビデオとして再編成し、画素値は点の3D座標に対応する。
論文 参考訳(メタデータ) (2024-03-02T08:18:57Z) - DSVT: Dynamic Sparse Voxel Transformer with Rotated Sets [95.84755169585492]
本研究では,屋外3次元知覚のためのシングルストライドウィンドウベースのボクセルトランスであるDynamic Sparse Voxel Transformer (DSVT)を提案する。
本モデルでは,3次元認識タスクを多岐にわたって行うことにより,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-01-15T09:31:58Z) - RIConv++: Effective Rotation Invariant Convolutions for 3D Point Clouds
Deep Learning [32.18566879365623]
3Dポイントクラウドのディープラーニングは、ニューラルネットワークがポイントクラウドの機能を直接学習することのできる、有望な研究分野である。
本稿では,局所領域から強力な回転不変特徴を設計することで特徴の区別を高める,シンプルで効果的な畳み込み演算子を提案する。
ネットワークアーキテクチャは、各畳み込み層の近傍サイズを単純に調整することで、ローカルとグローバルの両方のコンテキストをキャプチャできる。
論文 参考訳(メタデータ) (2022-02-26T08:32:44Z) - Deep Point Cloud Reconstruction [74.694733918351]
3Dスキャンから得られる点雲は、しばしばスパース、ノイズ、不規則である。
これらの問題に対処するため、最近の研究は別々に行われ、不正確な点雲を密度化、復調し、完全な不正確な点雲を観測している。
本研究では,1) 初期密度化とデノナイズのための3次元スパース集積時間ガラスネットワーク,2) 離散ボクセルを3Dポイントに変換するトランスフォーマーによる改良,の2段階からなる深部点雲再構成ネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-23T07:53:28Z) - CpT: Convolutional Point Transformer for 3D Point Cloud Processing [10.389972581905]
CpT: Convolutional Point Transformer - 3Dポイントクラウドデータの非構造化の性質を扱うための新しいディープラーニングアーキテクチャ。
CpTは、既存の注目ベースのConvolutions Neural Networksと、以前の3Dポイントクラウド処理トランスフォーマーの改善である。
我々のモデルは、既存の最先端のアプローチと比較して、様々なポイントクラウド処理タスクの効果的なバックボーンとして機能する。
論文 参考訳(メタデータ) (2021-11-21T17:45:55Z) - DV-Det: Efficient 3D Point Cloud Object Detection with Dynamic
Voxelization [0.0]
本稿では,効率的な3Dポイント・クラウド・オブジェクト検出のための新しい2段階フレームワークを提案する。
生のクラウドデータを3D空間で直接解析するが、目覚ましい効率と精度を実現する。
我々は,75 FPSでKITTI 3Dオブジェクト検出データセットを,25 FPSの推論速度で良好な精度でOpenデータセット上で強調する。
論文 参考訳(メタデータ) (2021-07-27T10:07:39Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - The Devils in the Point Clouds: Studying the Robustness of Point Cloud
Convolutions [15.997907568429177]
本稿では,点群上の畳み込みネットワークであるPointConvの異なる変種を調査し,入力スケールと回転変化に対する堅牢性を検討する。
3次元幾何学的性質をpointconvへの入力として利用し,新しい視点不変ディスクリプタを導出する。
2D MNIST & CIFAR-10データセットと3D Semantic KITTI & ScanNetデータセットで実験が行われた。
論文 参考訳(メタデータ) (2021-01-19T19:32:38Z) - ParaNet: Deep Regular Representation for 3D Point Clouds [62.81379889095186]
ParaNetは、3Dポイントクラウドを表現するための新しいエンドツーエンドのディープラーニングフレームワークである。
不規則な3D点雲を通常の2Dカラー画像に変換する。
多視点投影とボキセル化に基づく従来の正規表現法とは異なり、提案した表現は微分可能で可逆である。
論文 参考訳(メタデータ) (2020-12-05T13:19:55Z) - Global Context Aware Convolutions for 3D Point Cloud Understanding [32.953907994511376]
入力点クラウドから畳み込みへのグローバルコンテキスト情報の統合により特徴の区別を高める新しい畳み込み演算子を提案する。
次に畳み込みを行い、点とアンカーの特徴を最終的な回転不変の特徴に変換する。
論文 参考訳(メタデータ) (2020-08-07T04:33:27Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。