論文の概要: Point Cloud Semantic Segmentation using Multi Scale Sparse Convolution
Neural Network
- arxiv url: http://arxiv.org/abs/2205.01550v2
- Date: Wed, 4 May 2022 06:54:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 11:32:59.525306
- Title: Point Cloud Semantic Segmentation using Multi Scale Sparse Convolution
Neural Network
- Title(参考訳): マルチスケールスパース畳み込みニューラルネットワークを用いたポイントクラウド意味セグメンテーション
- Authors: Yunzheng Su
- Abstract要約: 本稿では,マルチスケール超スパース畳み込みに基づく特徴抽出モジュールと,チャネルアテンションに基づく特徴選択モジュールを提案する。
マルチスケールのスパース畳み込みを導入することで、ネットワークは異なるサイズの畳み込みカーネルに基づいてよりリッチな特徴情報をキャプチャできる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point clouds have the characteristics of disorder, unstructured and
sparseness.Aiming at the problem of the non-structural nature of point clouds,
thanks to the excellent performance of convolutional neural networks in image
processing, one of the solutions is to extract features from point clouds based
on two-dimensional convolutional neural networks. The three-dimensional
information carried in the point cloud can be converted to two-dimensional, and
then processed by a two-dimensional convolutional neural network, and finally
back-projected to three-dimensional.In the process of projecting 3D information
to 2D and back-projection, certain information loss will inevitably be caused
to the point cloud and category inconsistency will be introduced in the
back-projection stage;Another solution is the voxel-based point cloud
segmentation method, which divides the point cloud into small grids one by
one.However, the point cloud is sparse, and the direct use of 3D convolutional
neural network inevitably wastes computing resources. In this paper, we propose
a feature extraction module based on multi-scale ultra-sparse convolution and a
feature selection module based on channel attention, and build a point cloud
segmentation network framework based on this.By introducing multi-scale sparse
convolution, network could capture richer feature information based on
convolution kernels of different sizes, improving the segmentation result of
point cloud segmentation.
- Abstract(参考訳): 画像処理における畳み込みニューラルネットワークの優れた性能のおかげで、点雲の非構造的性質の問題から、2次元畳み込みニューラルネットワークに基づいて点雲の特徴を抽出する。
The three-dimensional information carried in the point cloud can be converted to two-dimensional, and then processed by a two-dimensional convolutional neural network, and finally back-projected to three-dimensional.In the process of projecting 3D information to 2D and back-projection, certain information loss will inevitably be caused to the point cloud and category inconsistency will be introduced in the back-projection stage;Another solution is the voxel-based point cloud segmentation method, which divides the point cloud into small grids one by one.However, the point cloud is sparse, and the direct use of 3D convolutional neural network inevitably wastes computing resources.
本稿では,マルチスケール超スパース畳み込みに基づく特徴抽出モジュールとチャネルアテンションに基づく特徴選択モジュールを提案し,これに基づくポイントクラウドセグメンテーションネットワークフレームワークを構築し,マルチスケールスパース畳み込みを導入することにより,ネットワークは,異なるサイズのコンボリューションカーネルに基づくよりリッチな特徴情報をキャプチャし,ポイントクラウドセグメンテーションのセグメンテーション結果を改善する。
関連論文リスト
- Point Cloud Compression with Implicit Neural Representations: A Unified Framework [54.119415852585306]
我々は幾何学と属性の両方を扱える先駆的なクラウド圧縮フレームワークを提案する。
本フレームワークでは,2つの座標ベースニューラルネットワークを用いて,voxelized point cloudを暗黙的に表現する。
本手法は,既存の学習手法と比較して,高い普遍性を示す。
論文 参考訳(メタデータ) (2024-05-19T09:19:40Z) - Clustering based Point Cloud Representation Learning for 3D Analysis [80.88995099442374]
本稿では,ポイントクラウド分析のためのクラスタリングに基づく教師付き学習手法を提案する。
現在のデファクトでシーンワイドなトレーニングパラダイムとは異なり、我々のアルゴリズムは点埋め込み空間上でクラス内のクラスタリングを行う。
我々のアルゴリズムは、有名なポイントクラウドセグメンテーションデータセットの顕著な改善を示している。
論文 参考訳(メタデータ) (2023-07-27T03:42:12Z) - Learning Neural Volumetric Field for Point Cloud Geometry Compression [13.691147541041804]
我々は、ニューラルネットワークを学習することで、与えられた点雲の幾何学をコーディングすることを提案する。
空間全体を小さな立方体に分割し,各空でない立方体をニューラルネットワークと入力潜時符号で表現する。
ネットワークは、空間的および時間的冗長性を利用するために、1つのフレームまたは複数のフレームで全ての立方体間で共有される。
論文 参考訳(メタデータ) (2022-12-11T19:55:24Z) - Voint Cloud: Multi-View Point Cloud Representation for 3D Understanding [80.04281842702294]
本稿では,複数の視点から抽出した特徴の集合として,各3次元点を表す多視点クラウド(Voint Cloud)の概念を紹介する。
この新しい3次元Vointクラウド表現は、3Dポイントクラウド表現のコンパクト性と、マルチビュー表現の自然なビュー認識性を組み合わせたものである。
理論的に確立された機能を持つVointニューラルネットワーク(VointNet)をデプロイし,Voint空間の表現を学習する。
論文 参考訳(メタデータ) (2021-11-30T13:08:19Z) - ParaNet: Deep Regular Representation for 3D Point Clouds [62.81379889095186]
ParaNetは、3Dポイントクラウドを表現するための新しいエンドツーエンドのディープラーニングフレームワークである。
不規則な3D点雲を通常の2Dカラー画像に変換する。
多視点投影とボキセル化に基づく従来の正規表現法とは異なり、提案した表現は微分可能で可逆である。
論文 参考訳(メタデータ) (2020-12-05T13:19:55Z) - Spherical Interpolated Convolutional Network with Distance-Feature
Density for 3D Semantic Segmentation of Point Clouds [24.85151376535356]
従来のグリッド形状の3次元畳み込み演算子を置き換えるために,球面補間畳み込み演算子を提案する。
提案手法は,ScanNetデータセットとParis-Lille-3Dデータセットで良好な性能を示す。
論文 参考訳(メタデータ) (2020-11-27T15:35:12Z) - Refinement of Predicted Missing Parts Enhance Point Cloud Completion [62.997667081978825]
点雲完了は、部分的な観測から3次元形状の点集合表現を用いて完全な幾何学を予測するタスクである。
従来のアプローチでは、不完全点集合によって供給されるエンコーダ・デコーダモデルにより、点雲全体を直接推定するニューラルネットワークが提案されていた。
本稿では、欠落した幾何を計算し、既知の入力と予測点クラウドを融合することに焦点を当てたエンドツーエンドニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-10-08T22:01:23Z) - Progressive Point Cloud Deconvolution Generation Network [37.50448637246364]
潜在ベクトルから同一形状の多分解能点雲を生成できる有効点雲生成法を提案する。
局所的特徴写像と大域的特徴写像の異なる分解能を結合することにより、多層パーセプトロンを生成ネットワークとして利用し、多層点雲を生成する。
点雲の異なる分解能の形状を一定に保つため, 点雲デコンボリューション生成ネットワークをトレーニングするための形状保存対向損失を提案する。
論文 参考訳(メタデータ) (2020-07-10T13:07:00Z) - GRNet: Gridding Residual Network for Dense Point Cloud Completion [54.43648460932248]
完全な3Dポイントクラウドを不完全なクラウドから推定することは、多くのビジョンやロボティクスアプリケーションにおいて重要な問題である。
本稿では,ポイントクラウド補完のための新しいGridding Residual Network(GRNet)を提案する。
実験結果から,提案したGRNetはShapeNet,Completion3D,KITTIベンチマークの最先端手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-06-06T02:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。