論文の概要: 3D-MPA: Multi Proposal Aggregation for 3D Semantic Instance Segmentation
- arxiv url: http://arxiv.org/abs/2003.13867v1
- Date: Mon, 30 Mar 2020 23:28:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 08:23:20.686794
- Title: 3D-MPA: Multi Proposal Aggregation for 3D Semantic Instance Segmentation
- Title(参考訳): 3D-MPA:3Dセマンティックインスタンスセグメンテーションのためのマルチプロポーザルアグリゲーション
- Authors: Francis Engelmann, Martin Bokeloh, Alireza Fathi, Bastian Leibe,
Matthias Nie{\ss}ner
- Abstract要約: 3D-MPAは、3Dポイントクラウド上のインスタンスセグメンテーションの方法である。
同じオブジェクトセンターに投票したグループ化されたポイント機能から提案機能を学びます。
グラフ畳み込みネットワークは、プロトゾス間関係を導入する。
- 参考スコア(独自算出の注目度): 26.169985423367393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present 3D-MPA, a method for instance segmentation on 3D point clouds.
Given an input point cloud, we propose an object-centric approach where each
point votes for its object center. We sample object proposals from the
predicted object centers. Then, we learn proposal features from grouped point
features that voted for the same object center. A graph convolutional network
introduces inter-proposal relations, providing higher-level feature learning in
addition to the lower-level point features. Each proposal comprises a semantic
label, a set of associated points over which we define a foreground-background
mask, an objectness score and aggregation features. Previous works usually
perform non-maximum-suppression (NMS) over proposals to obtain the final object
detections or semantic instances. However, NMS can discard potentially correct
predictions. Instead, our approach keeps all proposals and groups them together
based on the learned aggregation features. We show that grouping proposals
improves over NMS and outperforms previous state-of-the-art methods on the
tasks of 3D object detection and semantic instance segmentation on the
ScanNetV2 benchmark and the S3DIS dataset.
- Abstract(参考訳): 本稿では,3次元点雲上でのインスタンスセグメンテーション手法である3D-MPAを提案する。
入力点クラウドが与えられた場合、各点がオブジェクト中心に投票するオブジェクト中心のアプローチを提案する。
予測対象中心からのオブジェクト提案をサンプリングする。
次に、同じオブジェクトセンターに投票したグループ化されたポイント機能から提案機能を学ぶ。
グラフ畳み込みネットワークはプロモーサル間関係を導入し、低レベルの特徴に加えて高レベルの特徴学習を提供する。
各提案はセマンティックラベルと,前景背景マスク,オブジェクト性スコア,集約機能を定義した関連点からなる。
以前の作品は通常、最終的なオブジェクト検出または意味インスタンスを得るために提案よりも非最大抑制(nms)を実行する。
しかし、NMSは潜在的に正しい予測を破棄することができる。
代わりに、私たちのアプローチでは、学習した集約機能に基づいて、すべての提案とグループをまとめます。
ScanNetV2ベンチマークとS3DISデータセット上での3次元オブジェクト検出とセマンティックインスタンスセグメンテーションのタスクにおいて,グループ化提案がNMSよりも改善され,最先端の手法よりも優れていることを示す。
関連論文リスト
- Open-Vocabulary Octree-Graph for 3D Scene Understanding [54.11828083068082]
Octree-Graphはオープンな3Dシーン理解のための新しいシーン表現である。
セマンティクスを記憶し、その形状に応じてオブジェクトの占有度を調節するアダプティブ・オクツリー構造を開発する。
論文 参考訳(メタデータ) (2024-11-25T10:14:10Z) - SPGroup3D: Superpoint Grouping Network for Indoor 3D Object Detection [23.208654655032955]
屋内シーンにおける現在の3Dオブジェクト検出手法は,主に投票・グループ化戦略に従って提案を行う。
屋内アンカーフリーワンステージ3次元物体検出のための新しいスーパーポイントグループネットワークを提案する。
実験により,ScanNet V2, SUN RGB-D, S3DISデータセット上での最先端性能を実証した。
論文 参考訳(メタデータ) (2023-12-21T08:08:02Z) - Open3DIS: Open-Vocabulary 3D Instance Segmentation with 2D Mask Guidance [49.14140194332482]
Open3DISは3Dシーン内でのOpen-Vocabulary Instanceの問題に対処するために設計された新しいソリューションである。
3D環境内のオブジェクトは、さまざまな形状、スケール、色を示し、正確なインスタンスレベルの識別が困難なタスクとなる。
論文 参考訳(メタデータ) (2023-12-17T10:07:03Z) - ProposalContrast: Unsupervised Pre-training for LiDAR-based 3D Object
Detection [114.54835359657707]
ProposalContrastは、教師なしのポイントクラウド事前トレーニングフレームワークである。
地域提案と対比することで、堅牢な3D表現を学習する。
ProposalContrastは様々な3D検出器で検証される。
論文 参考訳(メタデータ) (2022-07-26T04:45:49Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - Background-Aware 3D Point Cloud Segmentationwith Dynamic Point Feature
Aggregation [12.093182949686781]
DPFA-Net(Dynamic Point Feature Aggregation Network)と呼ばれる新しい3Dポイント・クラウド・ラーニング・ネットワークを提案する。
DPFA-Netにはセマンティックセグメンテーションと3Dポイントクラウドの分類のための2つのバリエーションがある。
S3DISデータセットのセマンティックセグメンテーションのための、最先端の全体的な精度スコアを達成する。
論文 参考訳(メタデータ) (2021-11-14T05:46:05Z) - Instance Segmentation in 3D Scenes using Semantic Superpoint Tree
Networks [64.27814530457042]
本稿では,シーンポイントからオブジェクトインスタンスを提案するセマンティックスーパーポイントツリーネットワーク(SSTNet)のエンドツーエンドソリューションを提案する。
SSTNetのキーは中間的セマンティックなスーパーポイントツリー(SST)であり、スーパーポイントの学習されたセマンティックな特徴に基づいて構築されている。
SSTNetはScanNet(V2)のリーダーボードで上位にランクされ、第2のベストメソッドよりもmAPが2%高い。
論文 参考訳(メタデータ) (2021-08-17T07:25:14Z) - Hierarchical Aggregation for 3D Instance Segmentation [41.20244892803604]
本稿では,点集合と点集合の空間的関係をフル活用する,HAISというクラスタリングベースのフレームワークを提案する。
ScanNet v2ベンチマークでは、69.9%のAP50を達成し、従来のSOTA(State-of-the-art)メソッドを大きく上回っている。
論文 参考訳(メタデータ) (2021-08-05T03:34:34Z) - PointGroup: Dual-Set Point Grouping for 3D Instance Segmentation [111.7241018610573]
私たちは、インスタンスセグメンテーションのための新しいエンドツーエンドボトムアップアーキテクチャであるPointGroupを紹介します。
我々は2分岐ネットワークを設計し、ポイントの特徴を抽出し、セマンティックラベルとオフセットを予測し、各ポイントをそれぞれのインスタンスセントロイドに向けてシフトさせる。
クラスタリングコンポーネントは、元のおよびオフセットシフトされた点座標セットの両方を利用するために、その相補的な強度を利用する。
ScanNet v2 と S3DIS の2つの挑戦的データセットに対する広範な実験を行い、ScanNet v2 と S3DIS が最も高い性能を達成し、63.6% と 64.0% の2つを以前のベストが達成した54.9% と54.4% と比較した。
論文 参考訳(メタデータ) (2020-04-03T16:26:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。