論文の概要: PointMamba: A Simple State Space Model for Point Cloud Analysis
- arxiv url: http://arxiv.org/abs/2402.10739v1
- Date: Fri, 16 Feb 2024 14:56:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 15:36:57.499279
- Title: PointMamba: A Simple State Space Model for Point Cloud Analysis
- Title(参考訳): PointMamba: ポイントクラウド分析のためのシンプルな状態空間モデル
- Authors: Dingkang Liang, Xin Zhou, Xinyu Wang, Xingkui Zhu, Wei Xu, Zhikang
Zou, Xiaoqing Ye, Xiang Bai
- Abstract要約: 本稿では,大域的モデリングと線形複雑度を考慮したフレームワークであるPointMambaを提案する。
組込み点パッチを入力として,SSMのグローバルモデリング能力を高めるための並べ替え戦略を提案する。
実験の結果,提案したPointMambaは,異なるポイントクラウド分析データセット上で,トランスフォーマーをベースとした性能よりも優れていた。
- 参考スコア(独自算出の注目度): 61.93962505128706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformers have become one of the foundational architectures in point cloud
analysis tasks due to their excellent global modeling ability. However, the
attention mechanism has quadratic complexity and is difficult to extend to long
sequence modeling due to limited computational resources and so on. Recently,
state space models (SSM), a new family of deep sequence models, have presented
great potential for sequence modeling in NLP tasks. In this paper, taking
inspiration from the success of SSM in NLP, we propose PointMamba, a framework
with global modeling and linear complexity. Specifically, by taking embedded
point patches as input, we proposed a reordering strategy to enhance SSM's
global modeling ability by providing a more logical geometric scanning order.
The reordered point tokens are then sent to a series of Mamba blocks to
causally capture the point cloud structure. Experimental results show our
proposed PointMamba outperforms the transformer-based counterparts on different
point cloud analysis datasets, while significantly saving about 44.3%
parameters and 25% FLOPs, demonstrating the potential option for constructing
foundational 3D vision models. We hope our PointMamba can provide a new
perspective for point cloud analysis. The code is available at
https://github.com/LMD0311/PointMamba.
- Abstract(参考訳): トランスフォーマーは、優れたグローバルモデリング能力により、ポイントクラウド分析タスクの基本アーキテクチャの1つになっている。
しかし,注意機構は二次的複雑度を持ち,計算資源の制限などにより長い系列モデリングに拡張することは困難である。
近年、深部配列モデルの新たなファミリーである状態空間モデル (SSM) が、NLPタスクにおけるシーケンスモデリングに大きな可能性を示している。
本稿では,nlpにおけるssmの成功から着想を得て,グローバルモデリングと線形複雑性を備えたフレームワークであるpointmambaを提案する。
具体的には,組込み点パッチを入力として,より論理的な幾何学的なスキャニング順序を提供することで,ssmのグローバルモデリング能力を向上させるための再順序付け戦略を提案する。
リオーダーされたポイントトークンは一連のMambaブロックに送信され、ポイントクラウド構造を因果的にキャプチャする。
実験結果から,提案するポイントマンバは,異なるポイントクラウド解析データセット上でトランスフォーマティブベースよりも優れており,44.3%のパラメータと25%のフラップを大幅に節約でき,基礎となる3次元視覚モデル構築の選択肢が示唆された。
PointMambaがポイントクラウド分析の新しい視点を提供することを期待しています。
コードはhttps://github.com/LMD0311/PointMambaで入手できる。
関連論文リスト
- MobileMamba: Lightweight Multi-Receptive Visual Mamba Network [51.33486891724516]
従来の軽量モデルの研究は、主にCNNとTransformerベースの設計に重点を置いてきた。
効率と性能のバランスをとるMobileMambaフレームワークを提案する。
MobileMambaはTop-1で83.6%を達成し、既存の最先端の手法を上回っている。
論文 参考訳(メタデータ) (2024-11-24T18:01:05Z) - Mamba-CL: Optimizing Selective State Space Model in Null Space for Continual Learning [54.19222454702032]
継続的学習は、AIモデルに時間とともに一連のタスクを学習する能力を持たせることを目的としている。
ステートスペースモデル(SSM)はコンピュータビジョンにおいて顕著な成功を収めた。
大規模マンバ基礎モデルのコアSSMを連続的に微調整するフレームワークであるMamba-CLを紹介する。
論文 参考訳(メタデータ) (2024-11-23T06:36:16Z) - Exploring contextual modeling with linear complexity for point cloud segmentation [43.36716250540622]
効率的なポイントクラウドセグメンテーションアーキテクチャの鍵となるコンポーネントを同定する。
我々は,Mambaが線形計算複雑性を特徴とし,トランスフォーマーに比べて優れたデータと推論効率を提供することを示した。
さらに、ポイントクラウドセグメンテーションのための標準のMambaをさらに強化し、その2つの重要な欠点を特定します。
論文 参考訳(メタデータ) (2024-10-28T16:56:30Z) - MambaVT: Spatio-Temporal Contextual Modeling for robust RGB-T Tracking [51.28485682954006]
本研究では,マンバをベースとした純フレームワーク(MambaVT)を提案する。
具体的には、長距離クロスフレーム統合コンポーネントを考案し、ターゲットの外観変化にグローバルに適応する。
実験では、RGB-TトラッキングのためのMambaのビジョンの可能性が示され、MambaVTは4つの主要なベンチマークで最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2024-08-15T02:29:00Z) - Serialized Point Mamba: A Serialized Point Cloud Mamba Segmentation Model [9.718016281821471]
シリアライズされたポイントクラウドマンバモデル(シリアライズされたポイントマンバ)を開発した。
自然言語処理におけるMambaモデルの成功に触発されて,Serialized Point Cloud Mamba Modelを提案する。
Scannetでは76.8 mIoU、S3DISでは70.3 mIoUが達成された。
論文 参考訳(メタデータ) (2024-07-17T05:26:58Z) - Mamba24/8D: Enhancing Global Interaction in Point Clouds via State Space Model [37.375866491592305]
私たちは、ポイントクラウドドメインにSSMベースのアーキテクチャであるMambaを紹介します。
本稿では,線形複雑性下でのグローバルモデリング能力の強いMamba24/8Dを提案する。
Mamba24/8Dは、複数の3Dポイントクラウドセグメンテーションタスクにおける技術結果の状態を取得する。
論文 参考訳(メタデータ) (2024-06-25T10:23:53Z) - Mamba3D: Enhancing Local Features for 3D Point Cloud Analysis via State Space Model [18.30032389736101]
状態空間モデル(SSM)に基づくMambaモデルは、線形複雑性のみを持つ複数の領域でTransformerより優れている。
我々は,局所的特徴抽出を強化するために,ポイントクラウド学習に適した状態空間モデルであるMamba3Dを提案する。
論文 参考訳(メタデータ) (2024-04-23T12:20:27Z) - Point Mamba: A Novel Point Cloud Backbone Based on State Space Model with Octree-Based Ordering Strategy [15.032048930130614]
我々は、因果性を考慮した注文機構を備えた、新しいSSMベースのポイントクラウド処理バックボーン、Point Mambaを提案する。
本手法は, 変圧器をベースとした変圧器と比較して, 93.4%の精度と75.7mIOUの精度を実現している。
提案手法は,SSMが点雲理解において一般的なバックボーンとして機能する可能性を示す。
論文 参考訳(メタデータ) (2024-03-11T07:07:39Z) - MiM-ISTD: Mamba-in-Mamba for Efficient Infrared Small Target Detection [72.46396769642787]
ネスト構造であるMamba-in-Mamba(MiM-ISTD)を開発した。
MiM-ISTDはSOTA法より8倍高速で、2048×2048$のイメージでテストすると、GPUメモリ使用率を62.2$%削減する。
論文 参考訳(メタデータ) (2024-03-04T15:57:29Z) - Point Cloud Mamba: Point Cloud Learning via State Space Model [73.7454734756626]
我々は,マンバをベースとしたポイントクラウド法が,トランスフォーマや多層パーセプトロン(MLP)に基づく従来手法よりも優れていることを示す。
特に,マルチ層パーセプトロン(MLP)を用いて,マンバをベースとした点雲法が従来手法より優れていることを示す。
Point Cloud Mambaは、最先端(SOTA)のポイントベースメソッドであるPointNeXtを超え、ScanNN、ModelNet40、ShapeNetPart、S3DISデータセット上での新たなSOTAパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-03-01T18:59:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。