論文の概要: MaskGroup: Hierarchical Point Grouping and Masking for 3D Instance
Segmentation
- arxiv url: http://arxiv.org/abs/2203.14662v1
- Date: Mon, 28 Mar 2022 11:22:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 15:28:41.891228
- Title: MaskGroup: Hierarchical Point Grouping and Masking for 3D Instance
Segmentation
- Title(参考訳): MaskGroup: 3Dインスタンスセグメンテーションのための階層的なポイントグループとマスキング
- Authors: Min Zhong, Xinghao Chen, Xiaokang Chen, Gang Zeng, Yunhe Wang
- Abstract要約: 本稿では,ロボット工学や拡張現実といった現実的な応用の多種多様な3Dインスタンスセグメンテーション問題について検討する。
本稿では,3Dインスタンスをグループ化し,洗練するための新しいフレームワークを提案する。
提案手法は,ScanNetV2テストセットの0.5IoU閾値で66.4%のmAPを達成する。
- 参考スコア(独自算出の注目度): 36.28586460186891
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the 3D instance segmentation problem, which has a variety
of real-world applications such as robotics and augmented reality. Since the
surroundings of 3D objects are of high complexity, the separating of different
objects is very difficult. To address this challenging problem, we propose a
novel framework to group and refine the 3D instances. In practice, we first
learn an offset vector for each point and shift it to its predicted instance
center. To better group these points, we propose a Hierarchical Point Grouping
algorithm to merge the centrally aggregated points progressively. All points
are grouped into small clusters, which further gradually undergo another
clustering procedure to merge into larger groups. These multi-scale groups are
exploited for instance prediction, which is beneficial for predicting instances
with different scales. In addition, a novel MaskScoreNet is developed to
produce binary point masks of these groups for further refining the
segmentation results. Extensive experiments conducted on the ScanNetV2 and
S3DIS benchmarks demonstrate the effectiveness of the proposed method. For
instance, our approach achieves a 66.4\% mAP with the 0.5 IoU threshold on the
ScanNetV2 test set, which is 1.9\% higher than the state-of-the-art method.
- Abstract(参考訳): 本稿では,ロボット工学や拡張現実といった現実的な応用の多種多様な3Dインスタンスセグメンテーション問題を考察する。
3Dオブジェクトの周囲は複雑であるため、異なるオブジェクトの分離は非常に困難である。
この課題に対処するために,我々は3dインスタンスをグループ化し,洗練するための新しいフレームワークを提案する。
実際、まず各点のオフセットベクトルを学習し、予測されたインスタンス中心にシフトする。
これらの点をよりよくグループ化するために、中央集約された点を徐々にマージする階層的点群アルゴリズムを提案する。
すべての点は小さなクラスタにグループ化され、より大きなグループにマージする別のクラスタリング手順が徐々に実施される。
これらのマルチスケールグループはインスタンス予測に利用されており、異なるスケールのインスタンスを予測するのに有用である。
さらに,これらのグループの2値点マスクを作製し,さらにセグメンテーション結果の精細化を図る新しいマスクscorenetを開発した。
ScanNetV2 と S3DIS のベンチマークにより提案手法の有効性を実証した。
例えば、ScanNetV2テストセットの0.5IoU閾値を持つ66.4\% mAPは、最先端の手法よりも1.9\%高い。
関連論文リスト
- AutoInst: Automatic Instance-Based Segmentation of LiDAR 3D Scans [41.17467024268349]
3D環境を理解するには、きめ細かい風景を理解する必要がある。
教師なしの方法で3次元シーンのインスタンスセグメンテーションを予測することを提案する。
平均精度は13.3%,F1スコアは9.1%向上した。
論文 参考訳(メタデータ) (2024-03-24T22:53:16Z) - Open3DIS: Open-Vocabulary 3D Instance Segmentation with 2D Mask Guidance [49.14140194332482]
Open3DISは3Dシーン内でのOpen-Vocabulary Instanceの問題に対処するために設計された新しいソリューションである。
3D環境内のオブジェクトは、さまざまな形状、スケール、色を示し、正確なインスタンスレベルの識別が困難なタスクとなる。
論文 参考訳(メタデータ) (2023-12-17T10:07:03Z) - SAI3D: Segment Any Instance in 3D Scenes [68.57002591841034]
新規なゼロショット3Dインスタンスセグメンテーション手法であるSAI3Dを紹介する。
我々の手法は3Dシーンを幾何学的プリミティブに分割し、段階的に3Dインスタンスセグメンテーションにマージする。
ScanNet、Matterport3D、さらに難しいScanNet++データセットに関する実証的な評価は、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2023-12-17T09:05:47Z) - ISBNet: a 3D Point Cloud Instance Segmentation Network with
Instance-aware Sampling and Box-aware Dynamic Convolution [14.88505076974645]
ISBNetは、インスタンスをカーネルとして表現し、動的畳み込みを通じてインスタンスマスクをデコードする新しい方法である。
我々は,ScanNetV2 (55.9), S3DIS (60.8), S3LS3D (49.2) にAPの条件で新たな最先端結果を設定し,ScanNetV2のシーンあたり237msの高速推論時間を保持する。
論文 参考訳(メタデータ) (2023-03-01T06:06:28Z) - Collaborative Propagation on Multiple Instance Graphs for 3D Instance
Segmentation with Single-point Supervision [63.429704654271475]
本稿では,1つのオブジェクトを1つのポイントでラベル付けするだけでよい,弱教師付き手法RWSegを提案する。
これらの疎いラベルにより、セマンティック情報とインスタンス情報を伝達する2つの分岐を持つ統一的なフレームワークを導入する。
具体的には、異なるインスタンスグラフ間の競合を促進するクロスグラフ競合ランダムウォークス(CRW)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-10T02:14:39Z) - PointInst3D: Segmenting 3D Instances by Points [136.7261709896713]
本稿では,ポイント単位の予測方式で機能する,完全畳み込み型3Dポイントクラウドインスタンスセグメンテーション手法を提案する。
その成功の鍵は、各サンプルポイントに適切なターゲットを割り当てることにある。
提案手法はScanNetとS3DISのベンチマークで有望な結果が得られる。
論文 参考訳(メタデータ) (2022-04-25T02:41:46Z) - Instance Segmentation in 3D Scenes using Semantic Superpoint Tree
Networks [64.27814530457042]
本稿では,シーンポイントからオブジェクトインスタンスを提案するセマンティックスーパーポイントツリーネットワーク(SSTNet)のエンドツーエンドソリューションを提案する。
SSTNetのキーは中間的セマンティックなスーパーポイントツリー(SST)であり、スーパーポイントの学習されたセマンティックな特徴に基づいて構築されている。
SSTNetはScanNet(V2)のリーダーボードで上位にランクされ、第2のベストメソッドよりもmAPが2%高い。
論文 参考訳(メタデータ) (2021-08-17T07:25:14Z) - Hierarchical Aggregation for 3D Instance Segmentation [41.20244892803604]
本稿では,点集合と点集合の空間的関係をフル活用する,HAISというクラスタリングベースのフレームワークを提案する。
ScanNet v2ベンチマークでは、69.9%のAP50を達成し、従来のSOTA(State-of-the-art)メソッドを大きく上回っている。
論文 参考訳(メタデータ) (2021-08-05T03:34:34Z) - PointGroup: Dual-Set Point Grouping for 3D Instance Segmentation [111.7241018610573]
私たちは、インスタンスセグメンテーションのための新しいエンドツーエンドボトムアップアーキテクチャであるPointGroupを紹介します。
我々は2分岐ネットワークを設計し、ポイントの特徴を抽出し、セマンティックラベルとオフセットを予測し、各ポイントをそれぞれのインスタンスセントロイドに向けてシフトさせる。
クラスタリングコンポーネントは、元のおよびオフセットシフトされた点座標セットの両方を利用するために、その相補的な強度を利用する。
ScanNet v2 と S3DIS の2つの挑戦的データセットに対する広範な実験を行い、ScanNet v2 と S3DIS が最も高い性能を達成し、63.6% と 64.0% の2つを以前のベストが達成した54.9% と54.4% と比較した。
論文 参考訳(メタデータ) (2020-04-03T16:26:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。