論文の概要: PointMamba: A Simple State Space Model for Point Cloud Analysis
- arxiv url: http://arxiv.org/abs/2402.10739v2
- Date: Mon, 19 Feb 2024 03:12:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 00:13:39.899006
- Title: PointMamba: A Simple State Space Model for Point Cloud Analysis
- Title(参考訳): PointMamba: ポイントクラウド分析のためのシンプルな状態空間モデル
- Authors: Dingkang Liang, Xin Zhou, Xinyu Wang, Xingkui Zhu, Wei Xu, Zhikang
Zou, Xiaoqing Ye, Xiang Bai
- Abstract要約: 本稿では,大域的モデリングと線形複雑度を考慮したフレームワークであるPointMambaを提案する。
組込み点パッチを入力として,SSMのグローバルモデリング能力を高めるための並べ替え戦略を提案する。
実験の結果,提案したPointMambaは,異なるポイントクラウド分析データセット上で,トランスフォーマーをベースとした性能よりも優れていた。
- 参考スコア(独自算出の注目度): 61.93962505128706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformers have become one of the foundational architectures in point cloud
analysis tasks due to their excellent global modeling ability. However, the
attention mechanism has quadratic complexity and is difficult to extend to long
sequence modeling due to limited computational resources and so on. Recently,
state space models (SSM), a new family of deep sequence models, have presented
great potential for sequence modeling in NLP tasks. In this paper, taking
inspiration from the success of SSM in NLP, we propose PointMamba, a framework
with global modeling and linear complexity. Specifically, by taking embedded
point patches as input, we proposed a reordering strategy to enhance SSM's
global modeling ability by providing a more logical geometric scanning order.
The reordered point tokens are then sent to a series of Mamba blocks to
causally capture the point cloud structure. Experimental results show our
proposed PointMamba outperforms the transformer-based counterparts on different
point cloud analysis datasets, while significantly saving about 44.3%
parameters and 25% FLOPs, demonstrating the potential option for constructing
foundational 3D vision models. We hope our PointMamba can provide a new
perspective for point cloud analysis. The code is available at
https://github.com/LMD0311/PointMamba.
- Abstract(参考訳): トランスフォーマーは、優れたグローバルモデリング能力により、ポイントクラウド分析タスクの基本アーキテクチャの1つになっている。
しかし,注意機構は二次的複雑度を持ち,計算資源の制限などにより長い系列モデリングに拡張することは困難である。
近年、深部配列モデルの新たなファミリーである状態空間モデル (SSM) が、NLPタスクにおけるシーケンスモデリングに大きな可能性を示している。
本稿では,nlpにおけるssmの成功から着想を得て,グローバルモデリングと線形複雑性を備えたフレームワークであるpointmambaを提案する。
具体的には,組込み点パッチを入力として,より論理的な幾何学的なスキャニング順序を提供することで,ssmのグローバルモデリング能力を向上させるための再順序付け戦略を提案する。
リオーダーされたポイントトークンは一連のMambaブロックに送信され、ポイントクラウド構造を因果的にキャプチャする。
実験結果から,提案するポイントマンバは,異なるポイントクラウド解析データセット上でトランスフォーマティブベースよりも優れており,44.3%のパラメータと25%のフラップを大幅に節約でき,基礎となる3次元視覚モデル構築の選択肢が示唆された。
PointMambaがポイントクラウド分析の新しい視点を提供することを期待しています。
コードはhttps://github.com/LMD0311/PointMambaで入手できる。
関連論文リスト
- Point Mamba: A Novel Point Cloud Backbone Based on State Space Model
with Octree-Based Ordering Strategy [15.785841856510793]
我々は、因果性を考慮した注文機構を備えた、新しいSSMベースのポイントクラウド処理バックボーン、Point Mambaを提案する。
本手法は, 変圧器をベースとした変圧器と比較して, 93.4%の精度と75.7mIOUの精度を実現している。
提案手法は,SSMが点雲理解において一般的なバックボーンとして機能する可能性を示す。
論文 参考訳(メタデータ) (2024-03-11T07:07:39Z) - Point Could Mamba: Point Cloud Learning via State Space Model [69.58334830144946]
我々は,マンバをベースとしたポイントクラウド手法が,ポイントベースの手法より優れていることを示す。
ローカル・グローバル・モデリングを組み合わせたポイント・クラウド・マンバ(Point Cloud Mamba)というポイント・クラウド・ネットワークを構築した。
Point Cloud Mambaは、SOTAポイントベースのPointNeXtを超え、ScanObjectNN、ModelNet40、ShapeNetPartデータセットで新しいSOTAパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-03-01T18:59:03Z) - M$^3$CS: Multi-Target Masked Point Modeling with Learnable Codebook and
Siamese Decoders [19.68592678093725]
マスク付き点モデリングは、点雲の自己教師型事前学習の有望なスキームとなっている。
M$3$CSは上記の能力を持つモデルを可能にするために提案されている。
論文 参考訳(メタデータ) (2023-09-23T02:19:21Z) - Variational Relational Point Completion Network for Robust 3D
Classification [59.80993960827833]
可変点雲補完法は、局所的な詳細を欠くため、大域的な形状の骨格を生成する傾向がある。
本稿では2つの魅力的な特性を持つ変分フレームワークであるポイントコンプリートネットワーク(VRCNet)を提案する。
VRCNetは、現実世界のポイントクラウドスキャンにおいて、非常に一般化性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-04-18T17:03:20Z) - DSMNet: Deep High-precision 3D Surface Modeling from Sparse Point Cloud
Frames [12.531880335603145]
既存のポイントクラウドモデリングデータセットは、ポイントクラウドモデリング効果自体よりも、ポーズまたは軌道精度によるモデリング精度を表現する。
スパースポイントクラウドフレームを用いた高精度3次元表面モデリングのための新しい学習ベースジョイントフレームワークDSMNetを提案する。
論文 参考訳(メタデータ) (2023-04-09T09:23:06Z) - PointPatchMix: Point Cloud Mixing with Patch Scoring [58.58535918705736]
我々は、パッチレベルでポイントクラウドを混合し、混合ポイントクラウドのコンテンツベースターゲットを生成するPointPatchMixを提案する。
パッチスコアリングモジュールは、事前学習した教師モデルから、コンテンツに基づく重要度スコアに基づいて目標を割り当てる。
Point-MAE をベースラインとして,ScanObjectNN では86.3%,ModelNet40 では94.1% の精度で,従来の手法をかなり上回りました。
論文 参考訳(メタデータ) (2023-03-12T14:49:42Z) - AdaPoinTr: Diverse Point Cloud Completion with Adaptive Geometry-Aware
Transformers [94.11915008006483]
本稿では,ポイントクラウドの完了をセット・ツー・セットの翻訳問題として再定義する手法を提案する。
我々は、ポイントクラウド補完のためにTransformerエンコーダデコーダアーキテクチャを採用したPoinTrと呼ばれる新しいモデルを設計する。
本手法は,PCNで6.53 CD,ShapeNet-55で0.81 CD,現実世界のKITTIで0.392 MMDを実現する。
論文 参考訳(メタデータ) (2023-01-11T16:14:12Z) - PointAttN: You Only Need Attention for Point Cloud Completion [89.88766317412052]
ポイント・クラウド・コンプリート(Point cloud completion)とは、部分的な3次元ポイント・クラウドから3次元の形状を完成させることである。
そこで我々は,kNNを除去するために,ポイントクラウドをポイント単位に処理する新しいニューラルネットワークを提案する。
提案するフレームワークであるPointAttNはシンプルで簡潔で効果的であり、3次元形状の構造情報を正確に捉えることができる。
論文 参考訳(メタデータ) (2022-03-16T09:20:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。