論文の概要: Scalable 3D Panoptic Segmentation As Superpoint Graph Clustering
- arxiv url: http://arxiv.org/abs/2401.06704v2
- Date: Wed, 7 Feb 2024 17:26:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 19:09:15.666925
- Title: Scalable 3D Panoptic Segmentation As Superpoint Graph Clustering
- Title(参考訳): スーパーポイントグラフクラスタリングとしてのスケーラブルな3Dパノプティクスセグメンテーション
- Authors: Damien Robert, Hugo Raguet, Loic Landrieu
- Abstract要約: 大規模3次元点雲のパノプティカルセグメンテーションを高効率に行う手法を提案する。
私たちのモデルは、最高の競合方法よりも30ドル以上小さく、最大15ドル以上の速度でトレーニングします。
- 参考スコア(独自算出の注目度): 7.680851067579922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a highly efficient method for panoptic segmentation of large 3D
point clouds by redefining this task as a scalable graph clustering problem.
This approach can be trained using only local auxiliary tasks, thereby
eliminating the resource-intensive instance-matching step during training.
Moreover, our formulation can easily be adapted to the superpoint paradigm,
further increasing its efficiency. This allows our model to process scenes with
millions of points and thousands of objects in a single inference. Our method,
called SuperCluster, achieves a new state-of-the-art panoptic segmentation
performance for two indoor scanning datasets: $50.1$ PQ ($+7.8$) for S3DIS
Area~5, and $58.7$ PQ ($+25.2$) for ScanNetV2. We also set the first
state-of-the-art for two large-scale mobile mapping benchmarks: KITTI-360 and
DALES. With only $209$k parameters, our model is over $30$ times smaller than
the best-competing method and trains up to $15$ times faster. Our code and
pretrained models are available at
https://github.com/drprojects/superpoint_transformer.
- Abstract(参考訳): 本稿では,この課題をスケーラブルなグラフクラスタリング問題として再定義することにより,大規模3次元点雲のパノプティカルセグメンテーションを効率的に行う方法を提案する。
このアプローチは、ローカルな補助タスクのみを使用してトレーニングできるため、トレーニング中のリソース集約型インスタンスマッチングステップが不要になる。
さらに,我々の定式化はスーパーポイントパラダイムに容易に適応でき,効率も向上する。
これにより、モデルは単一の推論で数百万のポイントと数千のオブジェクトでシーンを処理できます。
この方法はsuperclusterと呼ばれ、2つの屋内スキャンデータセットで最新のpanopticセグメンテーション性能を実現している。s3dis area~5の50.1$ pq (+7.8$)、scannetv2の58.7$ pq (+25.2$)である。
また、KITTI-360 と DALES という2つの大規模モバイルマッピングベンチマークの最先端を初めて設定した。
たったの209ドル(約2万2000円)のパラメータで、私たちのモデルはベストコンペティングメソッドの30ドル(約3万3000円)以上もします。
私たちのコードと事前訓練されたモデルは、https://github.com/drprojects/superpoint_transformer.comで利用可能です。
関連論文リスト
- PointSeg: A Training-Free Paradigm for 3D Scene Segmentation via Foundation Models [51.24979014650188]
我々は、市販の視覚基盤モデルを利用して、3Dシーン認識タスクに対処する学習自由パラダイムであるPointSegを提案する。
PointSegは正確な3Dプロンプトを取得してフレーム間で対応するピクセルを調整することで、任意の3Dシーンを分割することができる。
ScanNet、ScanNet++、KITTI-360データセット上の14.1$%、12.3$%、12.6$%のmAPは、最先端のトレーニングフリーモデルを大きく上回っている。
論文 参考訳(メタデータ) (2024-03-11T03:28:20Z) - Efficient 3D Semantic Segmentation with Superpoint Transformer [7.680851067579922]
大規模3次元シーンの効率的なセマンティックセマンティックセグメンテーションのための新しいスーパーポイントベースのトランスフォーマーアーキテクチャを提案する。
提案手法では,高速アルゴリズムを用いて点雲を階層的なスーパーポイント構造に分割し,前処理を既存手法の7倍高速にする。
我々のモデルは、S3DISデータセットの折りたたみに3時間で1つのGPUでトレーニングできます。
論文 参考訳(メタデータ) (2023-06-13T18:03:05Z) - Contrastive Lift: 3D Object Instance Segmentation by Slow-Fast
Contrastive Fusion [110.84357383258818]
本稿では,2次元セグメントを3次元に上げ,ニューラルネットワーク表現を用いて融合させる新しい手法を提案する。
このアプローチの中核は、高速なクラスタリング目的関数であり、多数のオブジェクトを持つシーンにスケーラブルで適しています。
我々のアプローチは、ScanNet、Hypersim、Replicaのデータセットからの挑戦的なシーンにおいて、最先端の状況よりも優れています。
論文 参考訳(メタデータ) (2023-06-07T17:57:45Z) - ISBNet: a 3D Point Cloud Instance Segmentation Network with
Instance-aware Sampling and Box-aware Dynamic Convolution [14.88505076974645]
ISBNetは、インスタンスをカーネルとして表現し、動的畳み込みを通じてインスタンスマスクをデコードする新しい方法である。
我々は,ScanNetV2 (55.9), S3DIS (60.8), S3LS3D (49.2) にAPの条件で新たな最先端結果を設定し,ScanNetV2のシーンあたり237msの高速推論時間を保持する。
論文 参考訳(メタデータ) (2023-03-01T06:06:28Z) - Instance Segmentation in 3D Scenes using Semantic Superpoint Tree
Networks [64.27814530457042]
本稿では,シーンポイントからオブジェクトインスタンスを提案するセマンティックスーパーポイントツリーネットワーク(SSTNet)のエンドツーエンドソリューションを提案する。
SSTNetのキーは中間的セマンティックなスーパーポイントツリー(SST)であり、スーパーポイントの学習されたセマンティックな特徴に基づいて構築されている。
SSTNetはScanNet(V2)のリーダーボードで上位にランクされ、第2のベストメソッドよりもmAPが2%高い。
論文 参考訳(メタデータ) (2021-08-17T07:25:14Z) - Hierarchical Aggregation for 3D Instance Segmentation [41.20244892803604]
本稿では,点集合と点集合の空間的関係をフル活用する,HAISというクラスタリングベースのフレームワークを提案する。
ScanNet v2ベンチマークでは、69.9%のAP50を達成し、従来のSOTA(State-of-the-art)メソッドを大きく上回っている。
論文 参考訳(メタデータ) (2021-08-05T03:34:34Z) - Learning Semantic Segmentation of Large-Scale Point Clouds with Random
Sampling [52.464516118826765]
我々はRandLA-Netを紹介した。RandLA-Netは、大規模ポイントクラウドのポイントごとの意味を推論する、効率的で軽量なニューラルネットワークアーキテクチャである。
我々のアプローチの鍵は、より複雑な点選択アプローチではなく、ランダムな点サンプリングを使用することである。
我々のRandLA-Netは、既存のアプローチよりも最大200倍高速な1回のパスで100万ポイントを処理できます。
論文 参考訳(メタデータ) (2021-07-06T05:08:34Z) - SALA: Soft Assignment Local Aggregation for Parameter Efficient 3D
Semantic Segmentation [65.96170587706148]
3dポイントクラウドセマンティクスセグメンテーションのためのパラメータ効率の良いネットワークを生成するポイントローカルアグリゲーション関数の設計に着目する。
グリッド型アグリゲーション関数における学習可能な隣り合わせソフトアロケーションの利用について検討する。
論文 参考訳(メタデータ) (2020-12-29T20:16:37Z) - Scaling Semantic Segmentation Beyond 1K Classes on a Single GPU [87.48110331544885]
既存のセマンティックセグメンテーションモデルのトレーニングとスケールアップのための新しいトレーニング手法を提案する。
我々は、LVISとCOCOアノテーションからブートストラップした1284クラスのデータセットに対するアプローチの明確な利点を示し、DeeplabV3+モデルの3倍のmIoUを実現した。
論文 参考訳(メタデータ) (2020-12-14T13:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。