論文の概要: Divide and Conquer: 3D Point Cloud Instance Segmentation With Point-Wise
Binarization
- arxiv url: http://arxiv.org/abs/2207.11209v4
- Date: Thu, 23 Nov 2023 12:40:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 05:07:22.386490
- Title: Divide and Conquer: 3D Point Cloud Instance Segmentation With Point-Wise
Binarization
- Title(参考訳): DivideとConquer:Point-Wiseのバイナリ化による3Dポイントクラウドインスタンスセグメンテーション
- Authors: Weiguang Zhao, Yuyao Yan, Chaolong Yang, Jianan Ye, Xi Yang, Kaizhu
Huang
- Abstract要約: 本稿では, PBNet という新たな分割・分散方式を提案する。
我々のバイナリクラスタリングでは、オフセットインスタンスポイントを高密度と低密度の2つのカテゴリに分けています。
PBNetは、ScanNetV2の公式ベンチマークチャレンジで1位にランクインし、最高mAPを達成した。
- 参考スコア(独自算出の注目度): 16.662238192665615
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Instance segmentation on point clouds is crucially important for 3D scene
understanding. Most SOTAs adopt distance clustering, which is typically
effective but does not perform well in segmenting adjacent objects with the
same semantic label (especially when they share neighboring points). Due to the
uneven distribution of offset points, these existing methods can hardly cluster
all instance points. To this end, we design a novel divide-and-conquer strategy
named PBNet that binarizes each point and clusters them separately to segment
instances. Our binary clustering divides offset instance points into two
categories: high and low density points (HPs vs. LPs). Adjacent objects can be
clearly separated by removing LPs, and then be completed and refined by
assigning LPs via a neighbor voting method. To suppress potential
over-segmentation, we propose to construct local scenes with the weight mask
for each instance. As a plug-in, the proposed binary clustering can replace
traditional distance clustering and lead to consistent performance gains on
many mainstream baselines. A series of experiments on ScanNetV2 and S3DIS
datasets indicate the superiority of our model. In particular, PBNet ranks
first on the ScanNetV2 official benchmark challenge, achieving the highest mAP.
Code will be available publicly at https://github.com/weiguangzhao/PBNet.
- Abstract(参考訳): ポイントクラウド上のインスタンスセグメンテーションは、3Dシーン理解にとって極めて重要である。
ほとんどのSOTAは距離クラスタリングを採用しており、通常は有効であるが、隣接するオブジェクトを同じセマンティックラベルで区分けする(特に隣接するポイントを共有する場合)にはうまく機能しない。
オフセットポイントの不均一な分布のため、これらの既存のメソッドはすべてのインスタンスポイントをクラスタ化できない。
そこで本研究では,各点を二項化してセグメントインスタンスに分割してクラスタ化するPBNetという新しい分割・コンカレント戦略を設計する。
我々のバイナリクラスタリングでは、オフセットインスタンスポイントを高密度点と低密度点(HP対LP)の2つのカテゴリに分けています。
隣接オブジェクトは、LPを除去して明確に分離し、隣の投票方法でLPを割り当てることで完了および洗練することができる。
過剰なセグメンテーションを抑制するために,各インスタンスの重みマスクを用いてローカルシーンを構築することを提案する。
プラグインとして提案されているバイナリクラスタリングは、従来の距離クラスタリングを置き換えることができ、多くの主流ベースラインで一貫したパフォーマンス向上につながる。
ScanNetV2とS3DISデータセットに関する一連の実験は、我々のモデルの優位性を示している。
特にPBNetは、ScanNetV2の公式ベンチマークチャレンジでトップにランクインし、最も高いmAPを達成した。
コードはhttps://github.com/weiguangzhao/pbnetで公開される予定だ。
関連論文リスト
- FreePoint: Unsupervised Point Cloud Instance Segmentation [72.64540130803687]
点クラウド上の教師なしクラス非依存のインスタンスセグメンテーションを探索するためのFreePointを提案する。
我々は、座標、色、そして自己監督の深い特徴を組み合わせることで、点の特徴を表現する。
ポイント機能に基づいて、ポイントクラウドを擬似ラベルとして粗いインスタンスマスクに分割し、ポイントクラウドインスタンスセグメンテーションモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-05-11T16:56:26Z) - ISBNet: a 3D Point Cloud Instance Segmentation Network with
Instance-aware Sampling and Box-aware Dynamic Convolution [14.88505076974645]
ISBNetは、インスタンスをカーネルとして表現し、動的畳み込みを通じてインスタンスマスクをデコードする新しい方法である。
我々は,ScanNetV2 (55.9), S3DIS (60.8), S3LS3D (49.2) にAPの条件で新たな最先端結果を設定し,ScanNetV2のシーンあたり237msの高速推論時間を保持する。
論文 参考訳(メタデータ) (2023-03-01T06:06:28Z) - MaskGroup: Hierarchical Point Grouping and Masking for 3D Instance
Segmentation [36.28586460186891]
本稿では,ロボット工学や拡張現実といった現実的な応用の多種多様な3Dインスタンスセグメンテーション問題について検討する。
本稿では,3Dインスタンスをグループ化し,洗練するための新しいフレームワークを提案する。
提案手法は,ScanNetV2テストセットの0.5IoU閾値で66.4%のmAPを達成する。
論文 参考訳(メタデータ) (2022-03-28T11:22:58Z) - Stratified Transformer for 3D Point Cloud Segmentation [89.9698499437732]
Stratified Transformerは、長距離コンテキストをキャプチャし、強力な一般化能力と高性能を示す。
不規則な点配置によって引き起こされる課題に対処するために,局所情報を集約する第1層点埋め込みを提案する。
S3DIS, ScanNetv2およびShapeNetPartデータセットにおける本手法の有効性と優位性を示す実験を行った。
論文 参考訳(メタデータ) (2022-03-28T05:35:16Z) - GSIP: Green Semantic Segmentation of Large-Scale Indoor Point Clouds [64.86292006892093]
GSIP (Green of Indoor Point clouds) は大規模屋内シーンポイント雲のセマンティックセグメンテーションの効率的なソリューションである。
GSIPには2つの新しいコンポーネントがある: 1) 更なる処理のためにポイントの適切なサブセットを選択するルームスタイルのデータ前処理方法、2) ポイントホップから拡張された新しい特徴抽出器。
実験の結果、GSIPはS3DISデータセットのセグメンテーション性能においてPointNetよりも優れていた。
論文 参考訳(メタデータ) (2021-09-24T09:26:53Z) - Instance Segmentation in 3D Scenes using Semantic Superpoint Tree
Networks [64.27814530457042]
本稿では,シーンポイントからオブジェクトインスタンスを提案するセマンティックスーパーポイントツリーネットワーク(SSTNet)のエンドツーエンドソリューションを提案する。
SSTNetのキーは中間的セマンティックなスーパーポイントツリー(SST)であり、スーパーポイントの学習されたセマンティックな特徴に基づいて構築されている。
SSTNetはScanNet(V2)のリーダーボードで上位にランクされ、第2のベストメソッドよりもmAPが2%高い。
論文 参考訳(メタデータ) (2021-08-17T07:25:14Z) - Hierarchical Aggregation for 3D Instance Segmentation [41.20244892803604]
本稿では,点集合と点集合の空間的関係をフル活用する,HAISというクラスタリングベースのフレームワークを提案する。
ScanNet v2ベンチマークでは、69.9%のAP50を達成し、従来のSOTA(State-of-the-art)メソッドを大きく上回っている。
論文 参考訳(メタデータ) (2021-08-05T03:34:34Z) - FPCC: Fast Point Cloud Clustering for Instance Segmentation [4.007351600492542]
ビンピッキングシーンの3Dポイントクラウドインスタンスセグメンテーションについてはほとんど研究されていない。
各インスタンスのフィーチャーセンターを推論し、残りのポイントをクラスタ化するネットワーク(FPCC-Net)を提案する。
FPCC-Netは平均精度(AP)を約40%改善し,約6万ポイントを約0.8秒で処理できることが示されている。
論文 参考訳(メタデータ) (2020-12-29T05:58:35Z) - Few-shot 3D Point Cloud Semantic Segmentation [138.80825169240302]
本稿では,新しい注意型マルチプロトタイプトランスダクティブ・ショットポイント・クラウドセマンティックセマンティック・セマンティクス法を提案する。
提案手法は,雲のセマンティックセマンティックセグメンテーション設定の違いによるベースラインに比べて,顕著で一貫した改善を示す。
論文 参考訳(メタデータ) (2020-06-22T08:05:25Z) - PointGroup: Dual-Set Point Grouping for 3D Instance Segmentation [111.7241018610573]
私たちは、インスタンスセグメンテーションのための新しいエンドツーエンドボトムアップアーキテクチャであるPointGroupを紹介します。
我々は2分岐ネットワークを設計し、ポイントの特徴を抽出し、セマンティックラベルとオフセットを予測し、各ポイントをそれぞれのインスタンスセントロイドに向けてシフトさせる。
クラスタリングコンポーネントは、元のおよびオフセットシフトされた点座標セットの両方を利用するために、その相補的な強度を利用する。
ScanNet v2 と S3DIS の2つの挑戦的データセットに対する広範な実験を行い、ScanNet v2 と S3DIS が最も高い性能を達成し、63.6% と 64.0% の2つを以前のベストが達成した54.9% と54.4% と比較した。
論文 参考訳(メタデータ) (2020-04-03T16:26:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。