論文の概要: ZigzagPointMamba: Spatial-Semantic Mamba for Point Cloud Understanding
- arxiv url: http://arxiv.org/abs/2505.21381v2
- Date: Tue, 10 Jun 2025 13:46:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 19:51:30.196262
- Title: ZigzagPointMamba: Spatial-Semantic Mamba for Point Cloud Understanding
- Title(参考訳): ZigzagPointMamba:ポイントクラウド理解のための空間意味マンバ
- Authors: Linshuang Diao, Dayong Ren, Sensen Song, Yurong Qian,
- Abstract要約: PointMambaのような状態空間モデル(SSM)は、ポイントクラウドの自己教師型学習のための効率的な特徴抽出を可能にする。
既存のPointMambaベースの手法は、複雑なトークン順序付けとランダムマスキングに依存している。
これらの課題に対処するためにZigzagPointMambaを提案する。
- 参考スコア(独自算出の注目度): 2.0802801063068403
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State Space models (SSMs) such as PointMamba enable efficient feature extraction for point cloud self-supervised learning with linear complexity, outperforming Transformers in computational efficiency. However, existing PointMamba-based methods depend on complex token ordering and random masking, which disrupt spatial continuity and local semantic correlations. We propose ZigzagPointMamba to tackle these challenges. The core of our approach is a simple zigzag scan path that globally sequences point cloud tokens, enhancing spatial continuity by preserving the proximity of spatially adjacent point tokens. Nevertheless, random masking undermines local semantic modeling in self-supervised learning. To address this, we introduce a Semantic-Siamese Masking Strategy (SMS), which masks semantically similar tokens to facilitate reconstruction by integrating local features of original and similar tokens. This overcomes the dependence on isolated local features and enables robust global semantic modeling. Our pre-trained ZigzagPointMamba weights significantly improve downstream tasks, achieving a 1.59% mIoU gain on ShapeNetPart for part segmentation, a 0.4% higher accuracy on ModelNet40 for classification, and 0.19%, 1.22%, and 0.72% higher accuracies respectively for the classification tasks on the OBJ-BG, OBJ-ONLY, and PB-T50-RS subsets of ScanObjectNN.
- Abstract(参考訳): PointMambaのような状態空間モデル(SSM)は、線形複雑性を持つポイントクラウド自己教師型学習のための効率的な特徴抽出を可能にし、計算効率においてトランスフォーマーより優れている。
しかし、既存のPointMambaベースの手法は複雑なトークン順序付けとランダムマスキングに依存しており、空間的連続性と局所的な意味的相関を乱す。
これらの課題に対処するためにZigzagPointMambaを提案する。
提案手法の核となるのは、点点トークンをグローバルにシーケンスする単純なジグザグスキャンパスであり、空間隣接点トークンの近接保存による空間連続性の向上である。
それでも、ランダムマスキングは、自己教師あり学習における局所的なセマンティックモデリングを損なう。
これを解決するためにセマンティック・シームズ・マスキング戦略 (SMS) を導入し, 意味論的に類似したトークンをマスキングし, オリジナルのトークンと類似したトークンの局所的特徴を統合することで再構築を容易にする。
これにより、孤立したローカル機能への依存を克服し、ロバストなグローバルセマンティックモデリングを可能にします。
また,ScanObjectNNのOBJ-BG,OBJ-ONLY,PB-T50-RSサブセットにおいて,ScanObjectNNのモデルNet40では1.59%,1.22%,0.72%の精度で,ShapeNetPartでは1.59%のmIoUゲインを達成した。
関連論文リスト
- Point Mamba: A Novel Point Cloud Backbone Based on State Space Model with Octree-Based Ordering Strategy [15.032048930130614]
我々は、因果性を考慮した注文機構を備えた、新しいSSMベースのポイントクラウド処理バックボーン、Point Mambaを提案する。
本手法は, 変圧器をベースとした変圧器と比較して, 93.4%の精度と75.7mIOUの精度を実現している。
提案手法は,SSMが点雲理解において一般的なバックボーンとして機能する可能性を示す。
論文 参考訳(メタデータ) (2024-03-11T07:07:39Z) - Point Cloud Mamba: Point Cloud Learning via State Space Model [73.7454734756626]
我々は,マンバをベースとしたポイントクラウド法が,トランスフォーマや多層パーセプトロン(MLP)に基づく従来手法よりも優れていることを示す。
特に,マルチ層パーセプトロン(MLP)を用いて,マンバをベースとした点雲法が従来手法より優れていることを示す。
Point Cloud Mambaは、最先端(SOTA)のポイントベースメソッドであるPointNeXtを超え、ScanNN、ModelNet40、ShapeNetPart、S3DISデータセット上での新たなSOTAパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-03-01T18:59:03Z) - PointMamba: A Simple State Space Model for Point Cloud Analysis [65.59944745840866]
我々は、最近の代表的状態空間モデル(SSM)であるMambaの成功を、NLPからポイントクラウド分析タスクへ転送するPointMambaを提案する。
従来のトランスフォーマーとは異なり、PointMambaは線形複雑性アルゴリズムを採用し、グローバルなモデリング能力を示しながら計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2024-02-16T14:56:13Z) - Decoupled Local Aggregation for Point Cloud Learning [12.810517967372043]
本稿では,局所的な集合から空間関係の明示的なモデリングを分離することを提案する。
本稿では,各学習段階で相対的な空間符号化が最初に形成される軽量な点ネットワークであるDeLAを提案する。
DeLAはScanObjectNNで90%以上、S3DIS Area 5で74% mIoUを達成した。
論文 参考訳(メタデータ) (2023-08-31T08:21:29Z) - PointPatchMix: Point Cloud Mixing with Patch Scoring [58.58535918705736]
我々は、パッチレベルでポイントクラウドを混合し、混合ポイントクラウドのコンテンツベースターゲットを生成するPointPatchMixを提案する。
パッチスコアリングモジュールは、事前学習した教師モデルから、コンテンツに基づく重要度スコアに基づいて目標を割り当てる。
Point-MAE をベースラインとして,ScanObjectNN では86.3%,ModelNet40 では94.1% の精度で,従来の手法をかなり上回りました。
論文 参考訳(メタデータ) (2023-03-12T14:49:42Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - Fast Point Voxel Convolution Neural Network with Selective Feature
Fusion for Point Cloud Semantic Segmentation [7.557684072809662]
本稿では,ポイントクラウド解析のための軽量畳み込みニューラルネットワークを提案する。
本手法はサンプリングなしで全点集合上で動作し,効率よく性能を向上する。
論文 参考訳(メタデータ) (2021-09-23T19:39:01Z) - MST: Masked Self-Supervised Transformer for Visual Representation [52.099722121603506]
Transformerは自然言語処理(NLP)における自己教師型事前学習に広く利用されている。
我々は、画像の局所的コンテキストを明示的にキャプチャできる、MSTと呼ばれる新しいMasked Self-supervised Transformerアプローチを提案する。
MSTは、線形評価による300エポック事前トレーニングのみを使用して、DeiT-Sで76.9%のTop-1精度を達成する。
論文 参考訳(メタデータ) (2021-06-10T11:05:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。