論文の概要: PMA: Towards Parameter-Efficient Point Cloud Understanding via Point Mamba Adapter
- arxiv url: http://arxiv.org/abs/2505.20941v1
- Date: Tue, 27 May 2025 09:27:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.546516
- Title: PMA: Towards Parameter-Efficient Point Cloud Understanding via Point Mamba Adapter
- Title(参考訳): PMA: Point Mamba Adapterによるパラメータ効率の良いポイントクラウド理解を目指して
- Authors: Yaohua Zha, Yanzi Wang, Hang Guo, Jinpeng Wang, Tao Dai, Bin Chen, Zhihao Ouyang, Xue Yuerong, Ke Chen, Shu-Tao Xia,
- Abstract要約: 本稿では,事前学習モデルのすべての層から順序付き特徴系列を構成するPMAを提案する。
また、異なる層にまたがって共有される幾何学制約ゲートプロンプトジェネレータ(G2PG)を提案する。
- 参考スコア(独自算出の注目度): 54.33433051500349
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Applying pre-trained models to assist point cloud understanding has recently become a mainstream paradigm in 3D perception. However, existing application strategies are straightforward, utilizing only the final output of the pre-trained model for various task heads. It neglects the rich complementary information in the intermediate layer, thereby failing to fully unlock the potential of pre-trained models. To overcome this limitation, we propose an orthogonal solution: Point Mamba Adapter (PMA), which constructs an ordered feature sequence from all layers of the pre-trained model and leverages Mamba to fuse all complementary semantics, thereby promoting comprehensive point cloud understanding. Constructing this ordered sequence is non-trivial due to the inherent isotropy of 3D space. Therefore, we further propose a geometry-constrained gate prompt generator (G2PG) shared across different layers, which applies shared geometric constraints to the output gates of the Mamba and dynamically optimizes the spatial order, thus enabling more effective integration of multi-layer information. Extensive experiments conducted on challenging point cloud datasets across various tasks demonstrate that our PMA elevates the capability for point cloud understanding to a new level by fusing diverse complementary intermediate features. Code is available at https://github.com/zyh16143998882/PMA.
- Abstract(参考訳): ポイントクラウド理解を支援するために事前訓練されたモデルを適用することは、最近3D知覚において主流のパラダイムとなっている。
しかし、既存のアプリケーション戦略は単純であり、様々なタスクヘッドに対する事前訓練されたモデルの最終的な出力のみを利用する。
中間層の豊富な補完情報を無視し、事前訓練されたモデルの可能性を完全に解き放たない。
この制限を克服するために、PMA(Point Mamba Adapter)という、事前訓練されたモデルのすべての層から順序付けられた特徴列を構築し、Mambaを活用して全ての補完的意味論を融合させ、総合的なポイントクラウド理解を促進する。
この順序列を構成することは、3次元空間の固有の等方性のために非自明である。
そこで我々は,Mambaの出力ゲートに共有の幾何学的制約を適用し,空間的順序を動的に最適化し,多層情報のより効率的な統合を可能にする,幾何制約付きゲートプロンプトジェネレータ(G2PG)を提案する。
さまざまなタスクにわたる挑戦的なポイントクラウドデータセット上で実施された大規模な実験は、PMAが多様な補完的な中間機能を融合することによって、ポイントクラウド理解能力を新たなレベルに高めることを示す。
コードはhttps://github.com/zyh16143998882/PMAで入手できる。
関連論文リスト
- 3DMambaComplete: Exploring Structured State Space Model for Point Cloud Completion [19.60626235337542]
3DMambaCompleteは、新しいMambaフレームワーク上に構築されたポイントクラウド補完ネットワークである。
Mambaの選択メカニズムを使ってポイントクラウド機能をエンコードし、ハイパーポイントのセットを予測する。
変形法はハイパーポイントの2次元メッシュ表現を点雲再構成のための微細な3次元構造に変換する。
論文 参考訳(メタデータ) (2024-04-10T15:45:03Z) - Point Cloud Mamba: Point Cloud Learning via State Space Model [73.7454734756626]
我々は,マンバをベースとしたポイントクラウド法が,トランスフォーマや多層パーセプトロン(MLP)に基づく従来手法よりも優れていることを示す。
特に,マルチ層パーセプトロン(MLP)を用いて,マンバをベースとした点雲法が従来手法より優れていることを示す。
Point Cloud Mambaは、最先端(SOTA)のポイントベースメソッドであるPointNeXtを超え、ScanNN、ModelNet40、ShapeNetPart、S3DISデータセット上での新たなSOTAパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-03-01T18:59:03Z) - PointMamba: A Simple State Space Model for Point Cloud Analysis [65.59944745840866]
我々は、最近の代表的状態空間モデル(SSM)であるMambaの成功を、NLPからポイントクラウド分析タスクへ転送するPointMambaを提案する。
従来のトランスフォーマーとは異なり、PointMambaは線形複雑性アルゴリズムを採用し、グローバルなモデリング能力を示しながら計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2024-02-16T14:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。