論文の概要: Projection-based Point Convolution for Efficient Point Cloud
Segmentation
- arxiv url: http://arxiv.org/abs/2202.01991v1
- Date: Fri, 4 Feb 2022 06:22:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 00:57:04.415701
- Title: Projection-based Point Convolution for Efficient Point Cloud
Segmentation
- Title(参考訳): 効率的なポイントクラウドセグメンテーションのための投影型ポイントコンボリューション
- Authors: Pyunghwan Ahn, Juyoung Yang, Eojindl Yi, Chanho Lee, and Junmo Kim
- Abstract要約: 投影ベースのポイント・コンボリューション(PPConv)は、2Dコンボリューションと多層パーセプトロン(MLP)をコンポーネントとして使用するポイント・コンボリューションモジュールである。
PPConvは、PointNet++をベースとしたシンプルなアーキテクチャであっても、最先端のメソッドよりも優れた効率を実現している。
- 参考スコア(独自算出の注目度): 24.375383511061955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding point cloud has recently gained huge interests following the
development of 3D scanning devices and the accumulation of large-scale 3D data.
Most point cloud processing algorithms can be classified as either point-based
or voxel-based methods, both of which have severe limitations in processing
time or memory, or both. To overcome these limitations, we propose
Projection-based Point Convolution (PPConv), a point convolutional module that
uses 2D convolutions and multi-layer perceptrons (MLPs) as its components. In
PPConv, point features are processed through two branches: point branch and
projection branch. Point branch consists of MLPs, while projection branch
transforms point features into a 2D feature map and then apply 2D convolutions.
As PPConv does not use point-based or voxel-based convolutions, it has
advantages in fast point cloud processing. When combined with a learnable
projection and effective feature fusion strategy, PPConv achieves superior
efficiency compared to state-of-the-art methods, even with a simple
architecture based on PointNet++. We demonstrate the efficiency of PPConv in
terms of the trade-off between inference time and segmentation performance. The
experimental results on S3DIS and ShapeNetPart show that PPConv is the most
efficient method among the compared ones. The code is available at
github.com/pahn04/PPConv.
- Abstract(参考訳): ポイントクラウドの理解は、3Dスキャンデバイスの開発と大規模3Dデータの蓄積によって、最近大きな関心を集めている。
ほとんどのポイントクラウド処理アルゴリズムは、ポイントベースまたはvoxelベースのメソッドに分類されるが、どちらも処理時間やメモリに厳しい制限がある。
これらの制約を克服するために,2次元畳み込みと多層パーセプトロン(MLP)を成分とする点畳み込みモジュールである投影型点畳み込み(PPConv)を提案する。
ppconvでは、ポイント機能はポイントブランチとプロジェクションブランチの2つのブランチで処理される。
ポイントブランチはMPPで構成され、プロジェクションブランチはポイント特徴を2D特徴写像に変換し、2D畳み込みを適用する。
PPConvはポイントベースやボクセルベースの畳み込みを使わないため、高速なクラウド処理では利点がある。
学習可能なプロジェクションと効果的な機能融合戦略を組み合わせると、PPConvはPointNet++に基づいたシンプルなアーキテクチャであっても、最先端の手法よりも優れた効率を達成する。
推定時間とセグメンテーション性能のトレードオフの観点から,PPConvの効率を実証する。
S3DISとShapeNetPartの実験結果から,PPConvは比較した手法の中で最も効率的であることがわかった。
コードはgithub.com/pahn04/PPConvで入手できる。
関連論文リスト
- Dynamic 3D Point Cloud Sequences as 2D Videos [81.46246338686478]
3Dポイントクラウドシーケンスは、現実世界の環境における最も一般的で実用的な表現の1つとして機能する。
textitStructured Point Cloud Videos (SPCV) と呼ばれる新しい汎用表現を提案する。
SPCVは点雲列を空間的滑らかさと時間的一貫性を持つ2Dビデオとして再編成し、画素値は点の3D座標に対応する。
論文 参考訳(メタデータ) (2024-03-02T08:18:57Z) - PointOcc: Cylindrical Tri-Perspective View for Point-based 3D Semantic
Occupancy Prediction [72.75478398447396]
本稿では,点雲を効果的かつ包括的に表現する円筒型三重対視図を提案する。
また,LiDAR点雲の距離分布を考慮し,円筒座標系における三点ビューを構築した。
プロジェクション中に構造の詳細を維持するために空間群プーリングを使用し、各TPV平面を効率的に処理するために2次元バックボーンを採用する。
論文 参考訳(メタデータ) (2023-08-31T17:57:17Z) - DELFlow: Dense Efficient Learning of Scene Flow for Large-Scale Point
Clouds [42.64433313672884]
2次元グリッドに3次元座標を格納することで,原点を高密度フォーマットに正規化する。
既存の作業でよく使われるサンプリング操作とは異なり、密度の高い2D表現はほとんどの点を保存する。
また,情報損失問題を緩和する新しいワーププロジェクション手法を提案する。
論文 参考訳(メタデータ) (2023-08-08T16:37:24Z) - PointConvFormer: Revenge of the Point-based Convolution [7.539787913497268]
我々は、ポイントクラウドベースのディープネットワークアーキテクチャのための新しいビルディングブロックであるPointConvFormerを紹介した。
一般化理論にインスパイアされたPointConvFormerは、フィルタ重みが相対的な位置のみに基づく点畳み込みと、特徴に基づく注意力を利用する変換器を組み合わせた。
以上の結果から,PointConvFormerは従来のコンボリューション,正規トランスフォーマー,ボキセル化スパースコンボリューションアプローチよりも精度の高いトレードオフを提供することがわかった。
論文 参考訳(メタデータ) (2022-08-04T20:31:46Z) - Stratified Transformer for 3D Point Cloud Segmentation [89.9698499437732]
Stratified Transformerは、長距離コンテキストをキャプチャし、強力な一般化能力と高性能を示す。
不規則な点配置によって引き起こされる課題に対処するために,局所情報を集約する第1層点埋め込みを提案する。
S3DIS, ScanNetv2およびShapeNetPartデータセットにおける本手法の有効性と優位性を示す実験を行った。
論文 参考訳(メタデータ) (2022-03-28T05:35:16Z) - PMP-Net++: Point Cloud Completion by Transformer-Enhanced Multi-step
Point Moving Paths [60.32185890237936]
我々は、地球移動体の動作を模倣する新しいニューラルネットワーク、PMP-Net++を設計する。
不完全入力の各点を移動させ、点移動経路(PMP)の総距離が最短となる完全点雲を得る。
ネットワークは点レベルの厳密でユニークな対応を学習し、予測された完全形状の品質を向上させる。
論文 参考訳(メタデータ) (2022-02-19T03:00:40Z) - The Devils in the Point Clouds: Studying the Robustness of Point Cloud
Convolutions [15.997907568429177]
本稿では,点群上の畳み込みネットワークであるPointConvの異なる変種を調査し,入力スケールと回転変化に対する堅牢性を検討する。
3次元幾何学的性質をpointconvへの入力として利用し,新しい視点不変ディスクリプタを導出する。
2D MNIST & CIFAR-10データセットと3D Semantic KITTI & ScanNetデータセットで実験が行われた。
論文 参考訳(メタデータ) (2021-01-19T19:32:38Z) - Multi Projection Fusion for Real-time Semantic Segmentation of 3D LiDAR
Point Clouds [2.924868086534434]
本稿では,ポイントクラウドの複数のプロジェクションを利用する3次元ポイントクラウドセマンティックセマンティックセマンティクスの新しいアプローチを提案する。
我々のMulti-Projection Fusionフレームワークは、2つの異なる高効率2次元完全畳み込みモデルを用いて球面および鳥眼の視射影を解析する。
論文 参考訳(メタデータ) (2020-11-03T19:40:43Z) - Permutation Matters: Anisotropic Convolutional Layer for Learning on
Point Clouds [145.79324955896845]
本稿では,各点のソフトな置換行列を計算する変分異方性畳み込み演算(PAI-Conv)を提案する。
点雲の実験により、PAI-Convは分類とセマンティックセグメンテーションのタスクにおいて競合する結果をもたらすことが示された。
論文 参考訳(メタデータ) (2020-05-27T02:42:29Z) - FPConv: Learning Local Flattening for Point Convolution [64.01196188303483]
FPConvは3次元点雲解析のために設計された新しい表面形状の畳み込み演算子である。
従来の方法とは異なり、FPConvは3Dグリッドやグラフのような中間表現への変換を必要としない。
FPConvは3Dオブジェクト分類や3Dシーンセグメンテーションといったタスクのために、様々なネットワークアーキテクチャに簡単に統合できる。
論文 参考訳(メタデータ) (2020-02-25T07:15:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。