論文の概要: Parameter-Efficient Fine-Tuning in Spectral Domain for Point Cloud Learning
- arxiv url: http://arxiv.org/abs/2410.08114v1
- Date: Thu, 10 Oct 2024 17:00:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 05:15:31.441559
- Title: Parameter-Efficient Fine-Tuning in Spectral Domain for Point Cloud Learning
- Title(参考訳): ポイントクラウド学習のためのスペクトル領域におけるパラメータ効率の良い微調整
- Authors: Dingkang Liang, Tianrui Feng, Xin Zhou, Yumeng Zhang, Zhikang Zou, Xiang Bai,
- Abstract要約: 私たちは小説を提案します。
ポイントGST (Point GST) と呼ばれる点雲の効率的な微細調整法。
ポイントGSTは事前トレーニングされたモデルを凍結し、スペクトル領域のパラメータを微調整するためのトレーニング可能なポイントクラウドスペクトルアダプタ(PCSA)を導入する。
挑戦的なポイントクラウドデータセットに関する大規模な実験は、ポイントGSTが完全に微調整されたデータセットを上回るだけでなく、トレーニング可能なパラメータを大幅に削減することを示した。
- 参考スコア(独自算出の注目度): 49.91297276176978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, leveraging pre-training techniques to enhance point cloud models has become a hot research topic. However, existing approaches typically require full fine-tuning of pre-trained models to achieve satisfied performance on downstream tasks, accompanying storage-intensive and computationally demanding. To address this issue, we propose a novel Parameter-Efficient Fine-Tuning (PEFT) method for point cloud, called PointGST (Point cloud Graph Spectral Tuning). PointGST freezes the pre-trained model and introduces a lightweight, trainable Point Cloud Spectral Adapter (PCSA) to fine-tune parameters in the spectral domain. The core idea is built on two observations: 1) The inner tokens from frozen models might present confusion in the spatial domain; 2) Task-specific intrinsic information is important for transferring the general knowledge to the downstream task. Specifically, PointGST transfers the point tokens from the spatial domain to the spectral domain, effectively de-correlating confusion among tokens via using orthogonal components for separating. Moreover, the generated spectral basis involves intrinsic information about the downstream point clouds, enabling more targeted tuning. As a result, PointGST facilitates the efficient transfer of general knowledge to downstream tasks while significantly reducing training costs. Extensive experiments on challenging point cloud datasets across various tasks demonstrate that PointGST not only outperforms its fully fine-tuning counterpart but also significantly reduces trainable parameters, making it a promising solution for efficient point cloud learning. It improves upon a solid baseline by +2.28%, 1.16%, and 2.78%, resulting in 99.48%, 97.76%, and 96.18% on the ScanObjNN OBJ BG, OBJ OBLY, and PB T50 RS datasets, respectively. This advancement establishes a new state-of-the-art, using only 0.67% of the trainable parameters.
- Abstract(参考訳): 近年、ポイントクラウドモデルを強化するための事前学習技術の利用がホットな研究トピックとなっている。
しかし、既存のアプローチでは、ストレージ集約と計算的要求を伴う下流タスクで満足なパフォーマンスを達成するために、訓練済みモデルの完全な微調整が必要となる。
この問題に対処するために,ポイントGST (Point cloud Graph Spectral Tuning) と呼ばれる,ポイントクラウドのためのパラメータ効率の良いファインチューニング(PEFT)手法を提案する。
PointGSTは事前トレーニングされたモデルを凍結し、スペクトル領域の微調整パラメータに軽量でトレーニング可能なPoint Cloud Spectral Adapter (PCSA)を導入している。
中心となるアイデアは2つの観測に基づいて構築されている。
1) 凍結模型の内部トークンは,空間領域に混同する可能性がある。
2)タスク固有の本質的な情報は,ダウンストリームタスクに一般知識を移す上で重要である。
具体的には、ポイントGSTは、ポイントトークンを空間領域からスペクトル領域に転送し、直交成分を使用してトークン間の混乱を効果的に非相関化する。
さらに、生成されたスペクトルベースには、下流の点雲に関する固有の情報が含まれており、より標的となるチューニングを可能にしている。
その結果、PointGSTは、トレーニングコストを大幅に削減しつつ、下流タスクへの一般知識の効率的な移行を容易にする。
さまざまなタスクにわたる挑戦的なポイントクラウドデータセットに関する大規模な実験は、PointGSTが完全に微調整されるだけでなく、トレーニング可能なパラメータを大幅に削減し、効率的なポイントクラウド学習のための有望なソリューションであることを実証している。
ScanObjNN OBJ BG、OBJ OBLY、PB T50 RSデータセットで99.48%、97.76%、96.18%となる。
この進歩は、トレーニング可能なパラメータの0.67%しか使用せず、新しい最先端技術を確立している。
関連論文リスト
- Dynamic Adapter Meets Prompt Tuning: Parameter-Efficient Transfer Learning for Point Cloud Analysis [51.14136878142034]
ポイントクラウド分析は、事前訓練されたモデルのポイントクラウドの転送によって、優れたパフォーマンスを実現している。
モデル適応のための既存の方法は通常、高い計算コストに依存するため、非効率な全てのモデルパラメータを更新する。
本稿では,タスク性能とパラメータ効率のトレードオフを考慮した,ポイントクラウド解析のためのパラメータ効率変換学習を提案する。
論文 参考訳(メタデータ) (2024-03-03T08:25:04Z) - Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - PointGPT: Auto-regressively Generative Pre-training from Point Clouds [45.488532108226565]
我々はGPTの概念を点雲に拡張する新しいアプローチであるPointGPTを提案する。
具体的には、変圧器モデルの事前訓練に対して、ポイントクラウド自動回帰生成タスクを提案する。
提案手法は,ModelNet40データセットで94.9%,ScanObjectNNデータセットで93.4%の分類精度を達成し,他のトランスフォーマーモデルよりも優れている。
論文 参考訳(メタデータ) (2023-05-19T07:39:04Z) - Instance-aware Dynamic Prompt Tuning for Pre-trained Point Cloud Models [64.49254199311137]
本稿では,事前学習点クラウドモデルのための新しいインスタンス対応動的プロンプトチューニング(IDPT)戦略を提案する。
IDPTの本質は、各ポイントクラウドインスタンスのセマンティックな事前特徴を知覚する動的プロンプト生成モジュールを開発することである。
実験では、IDPTはトレーニング可能なパラメータのわずか7%で、ほとんどのタスクにおいて完全な微調整よりも優れています。
論文 参考訳(メタデータ) (2023-04-14T16:03:09Z) - PointPatchMix: Point Cloud Mixing with Patch Scoring [58.58535918705736]
我々は、パッチレベルでポイントクラウドを混合し、混合ポイントクラウドのコンテンツベースターゲットを生成するPointPatchMixを提案する。
パッチスコアリングモジュールは、事前学習した教師モデルから、コンテンツに基づく重要度スコアに基づいて目標を割り当てる。
Point-MAE をベースラインとして,ScanObjectNN では86.3%,ModelNet40 では94.1% の精度で,従来の手法をかなり上回りました。
論文 参考訳(メタデータ) (2023-03-12T14:49:42Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - Point Cloud Augmentation with Weighted Local Transformations [14.644850090688406]
本稿では,ポイントクラウド拡張のためのポイントWOLFという,シンプルで効果的な拡張手法を提案する。
提案手法は, 複数のアンカー点を中心とする局所重み付け変換により, 滑らかに変化する非剛性変形を生成する。
AugTuneは、目標とする信頼性スコアを生成するために、望ましい課題の強化されたサンプルを生成する。
論文 参考訳(メタデータ) (2021-10-11T16:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。