論文の概要: FPCC: Fast Point Cloud Clustering for Instance Segmentation
- arxiv url: http://arxiv.org/abs/2012.14618v3
- Date: Thu, 4 Mar 2021 10:01:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 05:18:34.255317
- Title: FPCC: Fast Point Cloud Clustering for Instance Segmentation
- Title(参考訳): FPCC:インスタンスセグメンテーションのための高速ポイントクラウドクラスタリング
- Authors: Yajun Xu, Shogo Arai, Diyi Liu, Fangzhou Lin, Kazuhiro Kosuge
- Abstract要約: ビンピッキングシーンの3Dポイントクラウドインスタンスセグメンテーションについてはほとんど研究されていない。
各インスタンスのフィーチャーセンターを推論し、残りのポイントをクラスタ化するネットワーク(FPCC-Net)を提案する。
FPCC-Netは平均精度(AP)を約40%改善し,約6万ポイントを約0.8秒で処理できることが示されている。
- 参考スコア(独自算出の注目度): 4.007351600492542
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Instance segmentation is an important pre-processing task in numerous
real-world applications, such as robotics, autonomous vehicles, and
human-computer interaction. However, there has been little research on 3D point
cloud instance segmentation of bin-picking scenes in which multiple objects of
the same class are stacked together. Compared with the rapid development of
deep learning for two-dimensional (2D) image tasks, deep learning-based 3D
point cloud segmentation still has a lot of room for development. In such a
situation, distinguishing a large number of occluded objects of the same class
is a highly challenging problem. In a usual bin-picking scene, an object model
is known and the number of object type is one. Thus, the semantic information
can be ignored; instead, the focus is put on the segmentation of instances.
Based on this task requirement, we propose a network (FPCC-Net) that infers
feature centers of each instance and then clusters the remaining points to the
closest feature center in feature embedding space. FPCC-Net includes two
subnets, one for inferring the feature centers for clustering and the other for
describing features of each point. The proposed method is compared with
existing 3D point cloud and 2D segmentation methods in some bin-picking scenes.
It is shown that FPCC-Net improves average precision (AP) by about 40\% than
SGPN and can process about 60,000 points in about 0.8 [s].
- Abstract(参考訳): インスタンスセグメンテーションは、ロボット工学、自動運転車、人間とコンピュータの相互作用など、多くの現実世界のアプリケーションにおいて重要な前処理タスクである。
しかし、同一クラスの複数のオブジェクトを積み重ねたビンピッキングシーンの3Dポイントクラウドインスタンスセグメンテーションについてはほとんど研究されていない。
2次元画像タスクのためのディープラーニングの急速な開発と比較すると、ディープラーニングベースの3Dポイントクラウドセグメンテーションは、まだ開発の余地がたくさんある。
このような状況下では、同じクラスの多数の隠蔽対象を区別することが非常に難しい問題である。
通常のビンピッキングシーンでは、オブジェクトモデルが知られ、オブジェクトの型数は1である。
したがって、セマンティック情報は無視できる。代わりに、インスタンスのセグメンテーションに焦点が当てられる。
このタスク要求に基づき、各インスタンスの特徴中心を推論し、残りのポイントを特徴埋め込み空間において最も近い特徴中心にクラスタリングするネットワーク(FPCC-Net)を提案する。
FPCC-Netには2つのサブネットがあり、1つはクラスタリングのための特徴中心を推測し、もう1つは各点の特徴を記述する。
提案手法は,既存の3dポイントクラウドおよび2dセグメンテーション手法と比較した。
FPCC-Net は SGPN よりも平均精度 (AP) が 40 % 向上し,約 0.8 [s] で約 6 万点処理可能である。
関連論文リスト
- Open3DIS: Open-Vocabulary 3D Instance Segmentation with 2D Mask Guidance [49.14140194332482]
Open3DISは3Dシーン内でのOpen-Vocabulary Instanceの問題に対処するために設計された新しいソリューションである。
3D環境内のオブジェクトは、さまざまな形状、スケール、色を示し、正確なインスタンスレベルの識別が困難なタスクとなる。
論文 参考訳(メタデータ) (2023-12-17T10:07:03Z) - Clustering based Point Cloud Representation Learning for 3D Analysis [80.88995099442374]
本稿では,ポイントクラウド分析のためのクラスタリングに基づく教師付き学習手法を提案する。
現在のデファクトでシーンワイドなトレーニングパラダイムとは異なり、我々のアルゴリズムは点埋め込み空間上でクラス内のクラスタリングを行う。
我々のアルゴリズムは、有名なポイントクラウドセグメンテーションデータセットの顕著な改善を示している。
論文 参考訳(メタデータ) (2023-07-27T03:42:12Z) - Prototype Adaption and Projection for Few- and Zero-shot 3D Point Cloud
Semantic Segmentation [30.18333233940194]
本研究は, 少数ショットとゼロショットの3Dポイントクラウドセマンティックセマンティックセグメンテーションの課題に対処する。
提案手法は,S3DISベンチマークとScanNetベンチマークの2方向1ショット設定により,最先端のアルゴリズムを約7.90%,14.82%上回る。
論文 参考訳(メタデータ) (2023-05-23T17:58:05Z) - FreePoint: Unsupervised Point Cloud Instance Segmentation [72.64540130803687]
点クラウド上の教師なしクラス非依存のインスタンスセグメンテーションを探索するためのFreePointを提案する。
我々は、座標、色、そして自己監督の深い特徴を組み合わせることで、点の特徴を表現する。
ポイント機能に基づいて、ポイントクラウドを擬似ラベルとして粗いインスタンスマスクに分割し、ポイントクラウドインスタンスセグメンテーションモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-05-11T16:56:26Z) - Divide and Conquer: 3D Point Cloud Instance Segmentation With Point-Wise
Binarization [16.662238192665615]
本稿では, PBNet という新たな分割・分散方式を提案する。
我々のバイナリクラスタリングでは、オフセットインスタンスポイントを高密度と低密度の2つのカテゴリに分けています。
PBNetは、ScanNetV2の公式ベンチマークチャレンジで1位にランクインし、最高mAPを達成した。
論文 参考訳(メタデータ) (2022-07-22T17:19:00Z) - Instance Segmentation in 3D Scenes using Semantic Superpoint Tree
Networks [64.27814530457042]
本稿では,シーンポイントからオブジェクトインスタンスを提案するセマンティックスーパーポイントツリーネットワーク(SSTNet)のエンドツーエンドソリューションを提案する。
SSTNetのキーは中間的セマンティックなスーパーポイントツリー(SST)であり、スーパーポイントの学習されたセマンティックな特徴に基づいて構築されている。
SSTNetはScanNet(V2)のリーダーボードで上位にランクされ、第2のベストメソッドよりもmAPが2%高い。
論文 参考訳(メタデータ) (2021-08-17T07:25:14Z) - LRGNet: Learnable Region Growing for Class-Agnostic Point Cloud
Segmentation [19.915593390338337]
本研究は,クラス非依存のクラウドセグメンテーションのための学習可能な領域成長手法を提案する。
提案手法は, 物体の形状や大きさを仮定することなく, 単一の深層ニューラルネットワークを用いて任意のクラスを分割することができる。
論文 参考訳(メタデータ) (2021-03-16T15:58:01Z) - Few-shot 3D Point Cloud Semantic Segmentation [138.80825169240302]
本稿では,新しい注意型マルチプロトタイプトランスダクティブ・ショットポイント・クラウドセマンティックセマンティック・セマンティクス法を提案する。
提案手法は,雲のセマンティックセマンティックセグメンテーション設定の違いによるベースラインに比べて,顕著で一貫した改善を示す。
論文 参考訳(メタデータ) (2020-06-22T08:05:25Z) - PointGroup: Dual-Set Point Grouping for 3D Instance Segmentation [111.7241018610573]
私たちは、インスタンスセグメンテーションのための新しいエンドツーエンドボトムアップアーキテクチャであるPointGroupを紹介します。
我々は2分岐ネットワークを設計し、ポイントの特徴を抽出し、セマンティックラベルとオフセットを予測し、各ポイントをそれぞれのインスタンスセントロイドに向けてシフトさせる。
クラスタリングコンポーネントは、元のおよびオフセットシフトされた点座標セットの両方を利用するために、その相補的な強度を利用する。
ScanNet v2 と S3DIS の2つの挑戦的データセットに対する広範な実験を行い、ScanNet v2 と S3DIS が最も高い性能を達成し、63.6% と 64.0% の2つを以前のベストが達成した54.9% と54.4% と比較した。
論文 参考訳(メタデータ) (2020-04-03T16:26:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。