論文の概要: Background-Aware 3D Point Cloud Segmentationwith Dynamic Point Feature
Aggregation
- arxiv url: http://arxiv.org/abs/2111.07248v1
- Date: Sun, 14 Nov 2021 05:46:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 10:16:23.277821
- Title: Background-Aware 3D Point Cloud Segmentationwith Dynamic Point Feature
Aggregation
- Title(参考訳): 動的特徴集合を用いた背景認識3次元点雲分割
- Authors: Jiajing Chen, Burak Kakillioglu, Senem Velipasalar
- Abstract要約: DPFA-Net(Dynamic Point Feature Aggregation Network)と呼ばれる新しい3Dポイント・クラウド・ラーニング・ネットワークを提案する。
DPFA-Netにはセマンティックセグメンテーションと3Dポイントクラウドの分類のための2つのバリエーションがある。
S3DISデータセットのセマンティックセグメンテーションのための、最先端の全体的な精度スコアを達成する。
- 参考スコア(独自算出の注目度): 12.093182949686781
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the proliferation of Lidar sensors and 3D vision cameras, 3D point cloud
analysis has attracted significant attention in recent years. After the success
of the pioneer work PointNet, deep learning-based methods have been
increasingly applied to various tasks, including 3D point cloud segmentation
and 3D object classification. In this paper, we propose a novel 3D point cloud
learning network, referred to as Dynamic Point Feature Aggregation Network
(DPFA-Net), by selectively performing the neighborhood feature aggregation with
dynamic pooling and an attention mechanism. DPFA-Net has two variants for
semantic segmentation and classification of 3D point clouds. As the core module
of the DPFA-Net, we propose a Feature Aggregation layer, in which features of
the dynamic neighborhood of each point are aggregated via a self-attention
mechanism. In contrast to other segmentation models, which aggregate features
from fixed neighborhoods, our approach can aggregate features from different
neighbors in different layers providing a more selective and broader view to
the query points, and focusing more on the relevant features in a local
neighborhood. In addition, to further improve the performance of the proposed
semantic segmentation model, we present two novel approaches, namely Two-Stage
BF-Net and BF-Regularization to exploit the background-foreground information.
Experimental results show that the proposed DPFA-Net achieves the
state-of-the-art overall accuracy score for semantic segmentation on the S3DIS
dataset, and provides a consistently satisfactory performance across different
tasks of semantic segmentation, part segmentation, and 3D object
classification. It is also computationally more efficient compared to other
methods.
- Abstract(参考訳): Lidarセンサーと3Dビジョンカメラの普及に伴い、3Dポイントクラウド分析は近年大きな注目を集めている。
先駆的な研究であるPointNetの成功の後、ディープラーニングベースの手法は、3Dポイントクラウドセグメンテーションや3Dオブジェクト分類など、様々なタスクにますます適用されてきた。
本稿では,動的プーリングとアテンション機構を備えた近傍特徴集約を選択的に行うことにより,動的ポイント特徴集約ネットワーク(DPFA-Net)と呼ばれる新しい3Dポイントクラウド学習ネットワークを提案する。
DPFA-Netにはセマンティックセグメンテーションと3Dポイントクラウドの分類のための2つのバリエーションがある。
DPFA-Netのコアモジュールとして,各点の動的近傍の特徴を自己認識機構を介して集約する特徴集約層を提案する。
固定近傍の特徴を集約する他のセグメンテーションモデルとは対照的に、我々のアプローチは、クエリポイントに対してより選択的でより広い視点を提供する異なる階層の隣人からの特徴を集約し、より局所的な特徴にフォーカスすることができる。
さらに,提案したセマンティックセグメンテーションモデルの性能向上のために,背景情報を活用するために,2段階BF-NetとBF-Regularizationという2つの新しい手法を提案する。
実験結果から,提案したDPFA-Netは,S3DISデータセット上でのセマンティックセグメンテーションの総合的精度スコアを達成し,セマンティックセグメンテーション,パートセグメンテーション,3次元オブジェクト分類のさまざまなタスクに一貫した満足な性能を提供する。
また、他の方法に比べて計算効率が良い。
関連論文リスト
- PointeNet: A Lightweight Framework for Effective and Efficient Point
Cloud Analysis [28.54939134635978]
PointeNetは、ポイントクラウド分析に特化したネットワークである。
本手法は,分類/分割ヘッドとシームレスに統合したり,市販の3Dオブジェクト検出ネットワークに埋め込んだりすることで,柔軟性を示す。
ModelNet40、ScanObjectNN、ShapeNet KITTI、およびシーンレベルのデータセットKITTIを含むオブジェクトレベルのデータセットの実験は、ポイントクラウド分析における最先端メソッドよりもPointeNetの方が優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-12-20T03:34:48Z) - Clustering based Point Cloud Representation Learning for 3D Analysis [80.88995099442374]
本稿では,ポイントクラウド分析のためのクラスタリングに基づく教師付き学習手法を提案する。
現在のデファクトでシーンワイドなトレーニングパラダイムとは異なり、我々のアルゴリズムは点埋め込み空間上でクラス内のクラスタリングを行う。
我々のアルゴリズムは、有名なポイントクラウドセグメンテーションデータセットの顕著な改善を示している。
論文 参考訳(メタデータ) (2023-07-27T03:42:12Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - SemAffiNet: Semantic-Affine Transformation for Point Cloud Segmentation [94.11915008006483]
ポイントクラウドセマンティックセグメンテーションのためのSemAffiNetを提案する。
我々はScanNetV2とNYUv2データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-05-26T17:00:23Z) - FatNet: A Feature-attentive Network for 3D Point Cloud Processing [1.502579291513768]
本稿では,グローバルポイントベースの機能とエッジベースの機能を組み合わせた,新たな機能指向ニューラルネットワーク層であるfat layerを提案する。
当社のアーキテクチャは,ModelNet40データセットで示すように,ポイントクラウド分類のタスクにおける最先端の成果を達成する。
論文 参考訳(メタデータ) (2021-04-07T23:13:56Z) - Investigate Indistinguishable Points in Semantic Segmentation of 3D
Point Cloud [34.414363402029984]
区別不能な点は、複雑な境界に位置する点と、類似した局所的なテクスチャを持つ点と、小さな硬い領域を分離する点からなる。
階層的セマンティック特徴を利用して,識別不能な点を適応的に選択する,識別不能な領域フォカライゼーションネットワーク(IAF-Net)を提案する。
IAF-Netは、いくつかの人気の3Dポイントクラウドデータセットで最先端のパフォーマンスで同等の結果を達成します。
論文 参考訳(メタデータ) (2021-03-18T15:54:59Z) - Anchor-Based Spatial-Temporal Attention Convolutional Networks for
Dynamic 3D Point Cloud Sequences [20.697745449159097]
動的3次元点雲列を処理するために,アンカー型時空間注意畳み込み演算(astaconv)を提案する。
提案する畳み込み操作は、各点の周囲に複数の仮想アンカーを設定することにより、各点の周囲にレギュラーレセプティブフィールドを構築する。
提案手法は,局所領域内の構造化情報をよりよく活用し,動的3次元点雲列から空間-時間埋め込み特徴を学習する。
論文 参考訳(メタデータ) (2020-12-20T07:35:37Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - PointGroup: Dual-Set Point Grouping for 3D Instance Segmentation [111.7241018610573]
私たちは、インスタンスセグメンテーションのための新しいエンドツーエンドボトムアップアーキテクチャであるPointGroupを紹介します。
我々は2分岐ネットワークを設計し、ポイントの特徴を抽出し、セマンティックラベルとオフセットを予測し、各ポイントをそれぞれのインスタンスセントロイドに向けてシフトさせる。
クラスタリングコンポーネントは、元のおよびオフセットシフトされた点座標セットの両方を利用するために、その相補的な強度を利用する。
ScanNet v2 と S3DIS の2つの挑戦的データセットに対する広範な実験を行い、ScanNet v2 と S3DIS が最も高い性能を達成し、63.6% と 64.0% の2つを以前のベストが達成した54.9% と54.4% と比較した。
論文 参考訳(メタデータ) (2020-04-03T16:26:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。