論文の概要: SPGroup3D: Superpoint Grouping Network for Indoor 3D Object Detection
- arxiv url: http://arxiv.org/abs/2312.13641v1
- Date: Thu, 21 Dec 2023 08:08:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 15:41:41.116457
- Title: SPGroup3D: Superpoint Grouping Network for Indoor 3D Object Detection
- Title(参考訳): SPGroup3D:屋内3次元物体検出のためのスーパーポイントグループネットワーク
- Authors: Yun Zhu, Le Hui, Yaqi Shen, Jin Xie
- Abstract要約: 屋内シーンにおける現在の3Dオブジェクト検出手法は,主に投票・グループ化戦略に従って提案を行う。
屋内アンカーフリーワンステージ3次元物体検出のための新しいスーパーポイントグループネットワークを提案する。
実験により,ScanNet V2, SUN RGB-D, S3DISデータセット上での最先端性能を実証した。
- 参考スコア(独自算出の注目度): 23.208654655032955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current 3D object detection methods for indoor scenes mainly follow the
voting-and-grouping strategy to generate proposals. However, most methods
utilize instance-agnostic groupings, such as ball query, leading to
inconsistent semantic information and inaccurate regression of the proposals.
To this end, we propose a novel superpoint grouping network for indoor
anchor-free one-stage 3D object detection. Specifically, we first adopt an
unsupervised manner to partition raw point clouds into superpoints, areas with
semantic consistency and spatial similarity. Then, we design a geometry-aware
voting module that adapts to the centerness in anchor-free detection by
constraining the spatial relationship between superpoints and object centers.
Next, we present a superpoint-based grouping module to explore the consistent
representation within proposals. This module includes a superpoint attention
layer to learn feature interaction between neighboring superpoints, and a
superpoint-voxel fusion layer to propagate the superpoint-level information to
the voxel level. Finally, we employ effective multiple matching to capitalize
on the dynamic receptive fields of proposals based on superpoints during the
training. Experimental results demonstrate our method achieves state-of-the-art
performance on ScanNet V2, SUN RGB-D, and S3DIS datasets in the indoor
one-stage 3D object detection. Source code is available at
https://github.com/zyrant/SPGroup3D.
- Abstract(参考訳): 屋内シーンにおける現在の3Dオブジェクト検出手法は,主に投票・グループ化戦略に従って提案を行う。
しかし、ほとんどのメソッドは、ボールクエリのようなインスタンスに依存しないグループ化を使い、一貫性のないセマンティック情報と、提案の不正確な回帰をもたらす。
そこで本稿では,屋内アンカーフリーな1段階3d物体検出のためのスーパーポイントグループネットワークを提案する。
具体的には、まず、生の点群をスーパーポイント、意味的一貫性と空間的類似性を持つ領域に分割する教師なしの方法を採用する。
次に,超点と物体中心間の空間的関係を制約することにより,アンカーフリー検出における中心性に適応する幾何認識型投票モジュールを設計する。
次に,提案中の一貫性のある表現を探索するために,スーパーポイントに基づくグループ化モジュールを提案する。
このモジュールは、隣接するスーパーポイント間の特徴相互作用を学習するスーパーポイントアテンション層と、スーパーポイントレベル情報をボクセルレベルに伝播するスーパーポイント-ボクセル融合層とを含む。
最後に,実効的な多重マッチングを用いて,学習中のスーパーポイントに基づく提案の動的受容領域を活用した。
実験により,ScanNet V2, SUN RGB-D, S3DISデータセットの室内1段3次元物体検出における最先端性能を実証した。
ソースコードはhttps://github.com/zyrant/spgroup3d。
関連論文リスト
- PoIFusion: Multi-Modal 3D Object Detection via Fusion at Points of Interest [65.48057241587398]
PoIFusionは興味のある時点でRGB画像とLiDAR点雲の情報を融合する(略してPoI)
本手法は、ビュー変換による情報損失を防止し、計算集約的なグローバルな注意をなくす。
注目すべきは、私たちのPoIFusionは74.9%のNDSと73.4%のmAPを獲得し、マルチモーダルな3Dオブジェクト検出ベンチマークで最先端の記録を樹立したことです。
論文 参考訳(メタデータ) (2024-03-14T09:28:12Z) - Open3DIS: Open-Vocabulary 3D Instance Segmentation with 2D Mask Guidance [49.14140194332482]
Open3DISは3Dシーン内でのOpen-Vocabulary Instanceの問題に対処するために設計された新しいソリューションである。
3D環境内のオブジェクトは、さまざまな形状、スケール、色を示し、正確なインスタンスレベルの識別が困難なタスクとなる。
論文 参考訳(メタデータ) (2023-12-17T10:07:03Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - 3D Object Detection Combining Semantic and Geometric Features from Point
Clouds [19.127930862527666]
そこで本研究では,SGNetと呼ばれる2次元物体検出装置を提案する。
VTPMはVoxel-Point-Based Moduleであり、最終的に点空間で3Dオブジェクト検出を実装している。
2021年9月19日時点で、KITTIデータセットでは、SGNetは、難易度の高いサイクリストの3DおよびBEV検出で1位、適度なサイクリストの3D検出では2位であった。
論文 参考訳(メタデータ) (2021-10-10T04:43:27Z) - Instance Segmentation in 3D Scenes using Semantic Superpoint Tree
Networks [64.27814530457042]
本稿では,シーンポイントからオブジェクトインスタンスを提案するセマンティックスーパーポイントツリーネットワーク(SSTNet)のエンドツーエンドソリューションを提案する。
SSTNetのキーは中間的セマンティックなスーパーポイントツリー(SST)であり、スーパーポイントの学習されたセマンティックな特徴に基づいて構築されている。
SSTNetはScanNet(V2)のリーダーボードで上位にランクされ、第2のベストメソッドよりもmAPが2%高い。
論文 参考訳(メタデータ) (2021-08-17T07:25:14Z) - VIN: Voxel-based Implicit Network for Joint 3D Object Detection and
Segmentation for Lidars [12.343333815270402]
統合ニューラルネットワーク構造は、ジョイント3Dオブジェクト検出とポイントクラウドセグメンテーションのために提示される。
私たちは、検出ラベルとセグメンテーションラベルの両方からの豊富な監視を活用しています。
論文 参考訳(メタデータ) (2021-07-07T02:16:20Z) - Group-Free 3D Object Detection via Transformers [26.040378025818416]
3Dポイントクラウドから3Dオブジェクトを直接検出するためのシンプルで効果的な方法を紹介します。
本手法は, 点群内のすべての点から物体の特徴を, 変圧器 citevaswaniattention における注意機構の助けを借りて計算する。
ベルやホイッスルが少ないため,ScanNet V2とSUN RGB-Dの2つのベンチマークで最先端の3Dオブジェクト検出性能を実現する。
論文 参考訳(メタデータ) (2021-04-01T17:59:36Z) - 3D-MPA: Multi Proposal Aggregation for 3D Semantic Instance Segmentation [26.169985423367393]
3D-MPAは、3Dポイントクラウド上のインスタンスセグメンテーションの方法である。
同じオブジェクトセンターに投票したグループ化されたポイント機能から提案機能を学びます。
グラフ畳み込みネットワークは、プロトゾス間関係を導入する。
論文 参考訳(メタデータ) (2020-03-30T23:28:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。