論文の概要: U3DS$^3$: Unsupervised 3D Semantic Scene Segmentation
- arxiv url: http://arxiv.org/abs/2311.06018v1
- Date: Fri, 10 Nov 2023 12:05:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 15:19:41.613897
- Title: U3DS$^3$: Unsupervised 3D Semantic Scene Segmentation
- Title(参考訳): u3ds$^3$:教師なし3dセマンティックシーンセグメンテーション
- Authors: Jiaxu Liu, Zhengdi Yu, Toby P. Breckon, Hubert P.H. Shum
- Abstract要約: 本稿では,U3DS$3$について,総合的な3Dシーンに対して,完全に教師なしのポイントクラウドセグメンテーションに向けたステップとして提示する。
提案手法の最初のステップは,各シーンの幾何学的特徴に基づいてスーパーポイントを生成することである。
次に、空間クラスタリングに基づく手法を用いて学習プロセスを行い、次いで、クラスタセントロイドに応じて生成された擬似ラベルを用いて反復的なトレーニングを行う。
- 参考スコア(独自算出の注目度): 19.706172244951116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contemporary point cloud segmentation approaches largely rely on richly
annotated 3D training data. However, it is both time-consuming and challenging
to obtain consistently accurate annotations for such 3D scene data. Moreover,
there is still a lack of investigation into fully unsupervised scene
segmentation for point clouds, especially for holistic 3D scenes. This paper
presents U3DS$^3$, as a step towards completely unsupervised point cloud
segmentation for any holistic 3D scenes. To achieve this, U3DS$^3$ leverages a
generalized unsupervised segmentation method for both object and background
across both indoor and outdoor static 3D point clouds with no requirement for
model pre-training, by leveraging only the inherent information of the point
cloud to achieve full 3D scene segmentation. The initial step of our proposed
approach involves generating superpoints based on the geometric characteristics
of each scene. Subsequently, it undergoes a learning process through a spatial
clustering-based methodology, followed by iterative training using
pseudo-labels generated in accordance with the cluster centroids. Moreover, by
leveraging the invariance and equivariance of the volumetric representations,
we apply the geometric transformation on voxelized features to provide two sets
of descriptors for robust representation learning. Finally, our evaluation
provides state-of-the-art results on the ScanNet and SemanticKITTI, and
competitive results on the S3DIS, benchmark datasets.
- Abstract(参考訳): 現代のクラウドセグメンテーションアプローチは、リッチなアノテーション付き3Dトレーニングデータに依存している。
しかし,このような3次元シーンデータに対して,一貫した正確なアノテーションを得ることは,時間的かつ困難である。
さらに、特に全体像的な3dシーンにおいて、点雲の完全な教師なしシーンセグメンテーションに関する調査が不足している。
本稿では,u3ds$^3$を,任意の3dシーンに対して完全に教師なしのポイントクラウドセグメンテーションを行うためのステップとして提示する。
これを実現するために、U3DS$^3$は、3Dシーンの完全なセグメンテーションを実現するためにポイントクラウドの本質的な情報のみを活用することにより、モデル事前トレーニングを必要とせずに、屋内および屋外の静的3Dポイントクラウドの両方にわたってオブジェクトと背景の両方を一般化した教師なしセグメンテーション手法を利用する。
提案手法の最初のステップは,各シーンの幾何学的特徴に基づくスーパーポイントの生成である。
その後、空間クラスタリングに基づく手法で学習プロセスを行い、その後、クラスタセンタロイドに応じて生成された擬似ラベルを用いた反復トレーニングを行う。
さらに,体積表現の不変性と等価性を活用することで,ボクセル化特徴の幾何学的変換を適用し,ロバスト表現学習のための2組のディスクリプタを提供する。
最後に,ScanNet と SemanticKITTI の最先端結果とベンチマークデータセットである S3DIS の競合結果を提供する。
関連論文リスト
- Bayesian Self-Training for Semi-Supervised 3D Segmentation [59.544558398992386]
3Dセグメンテーションはコンピュータビジョンの中核的な問題である。
完全に教師されたトレーニングを採用するために、3Dポイントクラウドを密にラベル付けすることは、労働集約的で高価です。
半教師付きトレーニングは、ラベル付きデータの小さなセットのみを付与し、より大きなラベル付きデータセットを伴って、より実用的な代替手段を提供する。
論文 参考訳(メタデータ) (2024-09-12T14:54:31Z) - DatasetNeRF: Efficient 3D-aware Data Factory with Generative Radiance Fields [68.94868475824575]
本稿では,無限で高品質な3Dアノテーションを3Dポイントクラウドセグメンテーションとともに生成できる新しいアプローチを提案する。
我々は3次元生成モデルに先立って強力なセマンティクスを活用してセマンティクスデコーダを訓練する。
トレーニングが完了すると、デコーダは遅延空間を効率よく一般化し、無限のデータの生成を可能にする。
論文 参考訳(メタデータ) (2023-11-18T21:58:28Z) - Leveraging Large-Scale Pretrained Vision Foundation Models for
Label-Efficient 3D Point Cloud Segmentation [67.07112533415116]
本稿では3Dポイントクラウドセグメンテーションタスクに様々な基礎モデルを適用する新しいフレームワークを提案する。
我々のアプローチでは、異なる大きな視覚モデルを用いて2次元セマンティックマスクの初期予測を行う。
本研究では,ロバストな3Dセマンティックな擬似ラベルを生成するために,投票による全ての結果を効果的に組み合わせたセマンティックなラベル融合戦略を提案する。
論文 参考訳(メタデータ) (2023-11-03T15:41:15Z) - Clustering based Point Cloud Representation Learning for 3D Analysis [80.88995099442374]
本稿では,ポイントクラウド分析のためのクラスタリングに基づく教師付き学習手法を提案する。
現在のデファクトでシーンワイドなトレーニングパラダイムとは異なり、我々のアルゴリズムは点埋め込み空間上でクラス内のクラスタリングを行う。
我々のアルゴリズムは、有名なポイントクラウドセグメンテーションデータセットの顕著な改善を示している。
論文 参考訳(メタデータ) (2023-07-27T03:42:12Z) - UnScene3D: Unsupervised 3D Instance Segmentation for Indoor Scenes [35.38074724231105]
UnScene3Dは、クラスに依存しない屋内スキャンの3Dインスタンスセグメンテーションのための、完全に教師なしの3D学習アプローチである。
高分解能な3次元データに基づく効率的な表現と学習を可能にする。
提案手法は,最先端の教師なし3次元インスタンス分割法を平均精度300%以上で改善する。
論文 参考訳(メタデータ) (2023-03-25T19:15:16Z) - ConDor: Self-Supervised Canonicalization of 3D Pose for Partial Shapes [55.689763519293464]
ConDorは、完全および部分的な3次元点雲の3次元配向と位置を正準化することを学ぶ自己教師型手法である。
推測中,本手法は任意のポーズで完全あるいは部分的な3次元点の雲を抽出し,同変正則のポーズを出力する。
論文 参考訳(メタデータ) (2022-01-19T18:57:21Z) - Exploring Deep 3D Spatial Encodings for Large-Scale 3D Scene
Understanding [19.134536179555102]
生の3次元点雲の空間的特徴を非方向性グラフモデルに符号化することで,CNNに基づくアプローチの限界を克服する代替手法を提案する。
提案手法は、訓練時間とモデル安定性を改善して、最先端の精度で達成し、さらなる研究の可能性を示す。
論文 参考訳(メタデータ) (2020-11-29T12:56:19Z) - Weakly-supervised 3D Shape Completion in the Wild [91.04095516680438]
非整合および実世界の部分点雲から3次元完全形状を学習する問題に対処する。
複数の部分的な観察から3次元標準形状と6-DoFのアライメントを推定する弱い教師付き手法を提案する。
合成データと実データの両方の実験では、形状やポーズを伴わずに大規模なデータを通じて3次元形状の完成を学習することは可能であり、有望であることが示された。
論文 参考訳(メタデータ) (2020-08-20T17:53:42Z) - Weakly Supervised Semantic Segmentation in 3D Graph-Structured Point
Clouds of Wild Scenes [36.07733308424772]
3Dセグメンテーションラベルの欠如は、効率的な点雲セグメンテーションの主な障害の1つである。
本稿では,2D のみを監督する点群における大規模セマンティックシーンセグメンテーションのための,新しいディープグラフ畳み込みネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-26T23:02:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。