論文の概要: S2AM3D: Scale-controllable Part Segmentation of 3D Point Cloud
- arxiv url: http://arxiv.org/abs/2512.00995v1
- Date: Sun, 30 Nov 2025 17:32:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.533016
- Title: S2AM3D: Scale-controllable Part Segmentation of 3D Point Cloud
- Title(参考訳): S2AM3D:3Dポイントクラウドのスケール制御可能な部分分割
- Authors: Han Su, Tianyu Huang, Zichen Wan, Xiaohe Wu, Wangmeng Zuo,
- Abstract要約: 本稿では,S2AM3Dを提案する。
我々は、ネイティブな3Dコントラスト学習を通じて、多視点2D特徴を集約する点一貫性部分エンコーダを設計する。
次に、セグメント化粒度のリアルタイムな調整を可能にするために、スケール対応プロンプトデコーダを提案する。
- 参考スコア(独自算出の注目度): 53.23686565523385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Part-level point cloud segmentation has recently attracted significant attention in 3D computer vision. Nevertheless, existing research is constrained by two major challenges: native 3D models lack generalization due to data scarcity, while introducing 2D pre-trained knowledge often leads to inconsistent segmentation results across different views. To address these challenges, we propose S2AM3D, which incorporates 2D segmentation priors with 3D consistent supervision. We design a point-consistent part encoder that aggregates multi-view 2D features through native 3D contrastive learning, producing globally consistent point features. A scale-aware prompt decoder is then proposed to enable real-time adjustment of segmentation granularity via continuous scale signals. Simultaneously, we introduce a large-scale, high-quality part-level point cloud dataset with more than 100k samples, providing ample supervision signals for model training. Extensive experiments demonstrate that S2AM3D achieves leading performance across multiple evaluation settings, exhibiting exceptional robustness and controllability when handling complex structures and parts with significant size variations.
- Abstract(参考訳): パートレベルのクラウドセグメンテーションは、最近3Dコンピュータビジョンにおいて大きな注目を集めている。
しかし、既存の研究は2つの大きな課題に制約されている: ネイティブな3Dモデルはデータの不足による一般化を欠いているが、2D事前学習された知識の導入は、しばしば異なる視点で一貫性のないセグメンテーション結果をもたらす。
これらの課題に対処するため,S2AM3Dを提案する。
我々は、ネイティブな3Dコントラスト学習を通じて多視点2D特徴を集約し、一貫した点特徴を生成する点一貫性部分エンコーダを設計する。
次に、連続的なスケール信号によるセグメント化粒度のリアルタイム調整を可能にするために、スケール対応プロンプトデコーダを提案する。
同時に、100万以上のサンプルを持つ大規模で高品質な部分レベルクラウドデータセットを導入し、モデルトレーニングのための十分な監視信号を提供する。
大規模な実験により、S2AM3Dは複数の評価設定をまたいで高い性能を達成し、複雑な構造や大きな大きさの部品を扱う際には、例外的な頑丈さと制御性を示すことが示されている。
関連論文リスト
- DatasetNeRF: Efficient 3D-aware Data Factory with Generative Radiance Fields [68.94868475824575]
本稿では,無限で高品質な3Dアノテーションを3Dポイントクラウドセグメンテーションとともに生成できる新しいアプローチを提案する。
我々は3次元生成モデルに先立って強力なセマンティクスを活用してセマンティクスデコーダを訓練する。
トレーニングが完了すると、デコーダは遅延空間を効率よく一般化し、無限のデータの生成を可能にする。
論文 参考訳(メタデータ) (2023-11-18T21:58:28Z) - Leveraging Large-Scale Pretrained Vision Foundation Models for
Label-Efficient 3D Point Cloud Segmentation [67.07112533415116]
本稿では3Dポイントクラウドセグメンテーションタスクに様々な基礎モデルを適用する新しいフレームワークを提案する。
我々のアプローチでは、異なる大きな視覚モデルを用いて2次元セマンティックマスクの初期予測を行う。
本研究では,ロバストな3Dセマンティックな擬似ラベルを生成するために,投票による全ての結果を効果的に組み合わせたセマンティックなラベル融合戦略を提案する。
論文 参考訳(メタデータ) (2023-11-03T15:41:15Z) - LWSIS: LiDAR-guided Weakly Supervised Instance Segmentation for
Autonomous Driving [34.119642131912485]
より巧妙なフレームワークであるLiDAR誘導弱監視インスタンス(LWSIS)を提示する。
LWSISは市販の3Dデータ、すなわちポイントクラウドと3Dボックスを2Dイメージインスタンスセグメンテーションモデルをトレーニングするための自然な弱い監督手段として使用している。
我々のLWSISは、訓練中のマルチモーダルデータの補完情報を利用するだけでなく、密集した2Dマスクのコストを大幅に削減します。
論文 参考訳(メタデータ) (2022-12-07T08:08:01Z) - Weakly Supervised Semantic Segmentation in 3D Graph-Structured Point
Clouds of Wild Scenes [36.07733308424772]
3Dセグメンテーションラベルの欠如は、効率的な点雲セグメンテーションの主な障害の1つである。
本稿では,2D のみを監督する点群における大規模セマンティックシーンセグメンテーションのための,新しいディープグラフ畳み込みネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-26T23:02:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。