論文の概要: On Geometry-Enhanced Parameter-Efficient Fine-Tuning for 3D Scene Segmentation
- arxiv url: http://arxiv.org/abs/2505.22444v1
- Date: Wed, 28 May 2025 15:08:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.673971
- Title: On Geometry-Enhanced Parameter-Efficient Fine-Tuning for 3D Scene Segmentation
- Title(参考訳): 3次元シーンセグメンテーションのための幾何強化パラメータ効率の良いファインチューニングについて
- Authors: Liyao Tang, Zhe Chen, Dacheng Tao,
- Abstract要約: 本稿では3Dポイント・クラウド・トランス用に設計された新しい幾何対応PEFTモジュールを提案する。
当社のアプローチでは,大規模3Dポイントクラウドモデルの効率的,スケーラブル,かつ幾何を考慮した微調整のための新しいベンチマークを設定している。
- 参考スコア(独自算出の注目度): 52.96632954620623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of large-scale pre-trained point cloud models has significantly advanced 3D scene understanding, but adapting these models to specific downstream tasks typically demands full fine-tuning, incurring high computational and storage costs. Parameter-efficient fine-tuning (PEFT) techniques, successful in natural language processing and 2D vision tasks, would underperform when naively applied to 3D point cloud models due to significant geometric and spatial distribution shifts. Existing PEFT methods commonly treat points as orderless tokens, neglecting important local spatial structures and global geometric contexts in 3D modeling. To bridge this gap, we introduce the Geometric Encoding Mixer (GEM), a novel geometry-aware PEFT module specifically designed for 3D point cloud transformers. GEM explicitly integrates fine-grained local positional encodings with a lightweight latent attention mechanism to capture comprehensive global context, thereby effectively addressing the spatial and geometric distribution mismatch. Extensive experiments demonstrate that GEM achieves performance comparable to or sometimes even exceeding full fine-tuning, while only updating 1.6% of the model's parameters, fewer than other PEFT methods. With significantly reduced training time and memory requirements, our approach thus sets a new benchmark for efficient, scalable, and geometry-aware fine-tuning of large-scale 3D point cloud models. Code will be released.
- Abstract(参考訳): 大規模な事前訓練されたポイントクラウドモデルの出現は、3Dシーンの理解を著しく向上させたが、これらのモデルを特定の下流タスクに適応させるには、通常、完全な微調整が必要で、高い計算とストレージコストが要求される。
自然言語処理や2次元視覚タスクで成功したパラメータ効率の良い微細チューニング(PEFT)技術は、幾何学的および空間的分布シフトが著しいため、3次元点雲モデルに鼻で適用すると性能が低下する。
既存のPEFT法は、点を秩序のないトークンとして扱い、3次元モデリングにおいて重要な局所的な空間構造とグローバルな幾何学的文脈を無視している。
このギャップを埋めるために、3Dポイント・クラウド・トランスフォーマー用に設計された新しい幾何対応PEFTモジュールであるGeometric Encoding Mixer (GEM)を導入する。
GEMは、局所的な微粒な位置エンコーディングと軽量な潜在注意機構を明示的に統合し、包括的グローバルコンテキストを捉え、空間的および幾何学的分布ミスマッチに効果的に対処する。
大規模な実験では、GEMは完全な微調整に匹敵するか、時には超える性能を達成する一方で、モデルのパラメータの1.6%しか更新せず、他のPEFT法よりも少ない性能を達成している。
トレーニング時間とメモリの要求を大幅に削減し,大規模3Dポイントクラウドモデルの効率的,スケーラブル,かつ幾何を考慮した微調整のための新しいベンチマークを構築した。
コードはリリースされる。
関連論文リスト
- ParaPoint: Learning Global Free-Boundary Surface Parameterization of 3D Point Clouds [52.03819676074455]
ParaPointは、グローバルな自由境界面パラメータ化を実現するための教師なしのニューラルネットワークパイプラインである。
この研究は、グローバルマッピングと自由境界の両方を追求するニューラルポイントクラウドパラメータ化を調査する最初の試みである。
論文 参考訳(メタデータ) (2024-03-15T14:35:05Z) - Point-PEFT: Parameter-Efficient Fine-Tuning for 3D Pre-trained Models [46.42092771753465]
我々は、最小限の学習可能なパラメータを持つポイントクラウド事前学習モデルに適用するための新しいフレームワークであるPoint-PEFTを紹介する。
具体的には、事前訓練された3Dモデルに対して、パラメータの大部分を凍結し、新たに追加されたPEFTモジュールを下流タスクでチューニングする。
論文 参考訳(メタデータ) (2023-10-04T16:49:36Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。