論文の概要: SPPSFormer: High-quality Superpoint-based Transformer for Roof Plane Instance Segmentation from Point Clouds
- arxiv url: http://arxiv.org/abs/2505.24475v1
- Date: Fri, 30 May 2025 11:23:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.921342
- Title: SPPSFormer: High-quality Superpoint-based Transformer for Roof Plane Instance Segmentation from Point Clouds
- Title(参考訳): SPPSFormer: ポイントクラウドからのルーフプレーンインスタンスセグメンテーションのための高品質スーパーポイントベーストランス
- Authors: Cheng Zeng, Xiatian Qi, Chi Chen, Kai Sun, Wangle Zhang, Yuxuan Liu, Yan Meng, Bisheng Yang,
- Abstract要約: 変圧器は、ポイントクラウドの屋根面のインスタンスセグメンテーションにはほとんど使われていない。
既存のスーパーポイント変換器は、低品質のスーパーポイントを使用するため、限られた性能に悩まされる。
高品質なスーパーポイントが満足すべき2つの基準を確立し、それに対応する2段階のスーパーポイント生成プロセスを導入する。
- 参考スコア(独自算出の注目度): 14.67024375365087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformers have been seldom employed in point cloud roof plane instance segmentation, which is the focus of this study, and existing superpoint Transformers suffer from limited performance due to the use of low-quality superpoints. To address this challenge, we establish two criteria that high-quality superpoints for Transformers should satisfy and introduce a corresponding two-stage superpoint generation process. The superpoints generated by our method not only have accurate boundaries, but also exhibit consistent geometric sizes and shapes, both of which greatly benefit the feature learning of superpoint Transformers. To compensate for the limitations of deep learning features when the training set size is limited, we incorporate multidimensional handcrafted features into the model. Additionally, we design a decoder that combines a Kolmogorov-Arnold Network with a Transformer module to improve instance prediction and mask extraction. Finally, our network's predictions are refined using traditional algorithm-based postprocessing. For evaluation, we annotated a real-world dataset and corrected annotation errors in the existing RoofN3D dataset. Experimental results show that our method achieves state-of-the-art performance on our dataset, as well as both the original and reannotated RoofN3D datasets. Moreover, our model is not sensitive to plane boundary annotations during training, significantly reducing the annotation burden. Through comprehensive experiments, we also identified key factors influencing roof plane segmentation performance: in addition to roof types, variations in point cloud density, density uniformity, and 3D point precision have a considerable impact. These findings underscore the importance of incorporating data augmentation strategies that account for point cloud quality to enhance model robustness under diverse and challenging conditions.
- Abstract(参考訳): 本研究の焦点である点状屋根面インスタンスセグメンテーションでは変圧器が採用されることはめったになく, 現行の変圧器は低品質の超点を使用するため, 限られた性能に悩まされている。
この課題に対処するために、トランスフォーマーの高品質なスーパーポイントが満足すべき2つの基準を確立し、対応する2段階のスーパーポイント生成プロセスを導入する。
提案手法によって生成されたスーパーポイントは,正確な境界を持つだけでなく,一貫した幾何学的大きさや形状も示しており,どちらもスーパーポイント変換器の特徴学習に大いに有用である。
トレーニングセットのサイズが制限された場合のディープラーニング機能の限界を補うため,多次元手作り特徴をモデルに組み込む。
さらに,Kolmogorov-ArnoldネットワークとTransformerモジュールを組み合わせたデコーダを設計し,インスタンス予測とマスク抽出を改善する。
最後に、従来のアルゴリズムベースの後処理を用いて、ネットワークの予測を洗練する。
評価のために,実世界のデータセットをアノテートし,既存のRoofN3Dデータセットのアノテーションエラーを修正した。
実験結果から,本手法は元のRoofN3Dデータセットと再注釈されたRoofN3Dデータセットの両方と同様に,我々のデータセット上での最先端性能を実現することが示された。
さらに,本モデルはトレーニング中の平面境界アノテーションに敏感ではなく,アノテーションの負担を大幅に軽減する。
また, 屋根面のセグメンテーション性能に影響を及ぼす重要な要因として, 屋根の種類, 点雲密度の変動, 密度均一性, および3次元点精度について検討した。
これらの知見は、多様で困難な条件下でモデルロバスト性を高めるために、ポイントクラウドの品質を考慮したデータ拡張戦略を導入することの重要性を浮き彫りにしている。
関連論文リスト
- Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - Adaptive Point Transformer [88.28498667506165]
Adaptive Point Cloud Transformer (AdaPT) は、適応トークン選択機構によって強化された標準PTモデルである。
AdaPTは推論中のトークン数を動的に削減し、大きな点雲の効率的な処理を可能にする。
論文 参考訳(メタデータ) (2024-01-26T13:24:45Z) - AdaPoinTr: Diverse Point Cloud Completion with Adaptive Geometry-Aware
Transformers [94.11915008006483]
本稿では,ポイントクラウドの完了をセット・ツー・セットの翻訳問題として再定義する手法を提案する。
我々は、ポイントクラウド補完のためにTransformerエンコーダデコーダアーキテクチャを採用したPoinTrと呼ばれる新しいモデルを設計する。
本手法は,PCNで6.53 CD,ShapeNet-55で0.81 CD,現実世界のKITTIで0.392 MMDを実現する。
論文 参考訳(メタデータ) (2023-01-11T16:14:12Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - Dual Adaptive Transformations for Weakly Supervised Point Cloud
Segmentation [78.6612285236938]
弱制御点雲分割のための新しいDATモデル(textbfDual textbfAdaptive textbfTransformations)を提案する。
我々は,大規模S3DISデータセットとScanNet-V2データセットの2つの人気バックボーンを用いたDATモデルの評価を行った。
論文 参考訳(メタデータ) (2022-07-19T05:43:14Z) - CpT: Convolutional Point Transformer for 3D Point Cloud Processing [10.389972581905]
CpT: Convolutional Point Transformer - 3Dポイントクラウドデータの非構造化の性質を扱うための新しいディープラーニングアーキテクチャ。
CpTは、既存の注目ベースのConvolutions Neural Networksと、以前の3Dポイントクラウド処理トランスフォーマーの改善である。
我々のモデルは、既存の最先端のアプローチと比較して、様々なポイントクラウド処理タスクの効果的なバックボーンとして機能する。
論文 参考訳(メタデータ) (2021-11-21T17:45:55Z) - Point Cloud Augmentation with Weighted Local Transformations [14.644850090688406]
本稿では,ポイントクラウド拡張のためのポイントWOLFという,シンプルで効果的な拡張手法を提案する。
提案手法は, 複数のアンカー点を中心とする局所重み付け変換により, 滑らかに変化する非剛性変形を生成する。
AugTuneは、目標とする信頼性スコアを生成するために、望ましい課題の強化されたサンプルを生成する。
論文 参考訳(メタデータ) (2021-10-11T16:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。