論文の概要: Instance-aware Dynamic Prompt Tuning for Pre-trained Point Cloud Models
- arxiv url: http://arxiv.org/abs/2304.07221v1
- Date: Fri, 14 Apr 2023 16:03:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 13:11:15.188101
- Title: Instance-aware Dynamic Prompt Tuning for Pre-trained Point Cloud Models
- Title(参考訳): 事前学習点クラウドモデルのためのインスタンス対応動的プロンプトチューニング
- Authors: Yaohua Zha, Jinpeng Wang, Tao Dai, Bin Chen, Zhi Wang, Shu-Tao Xia
- Abstract要約: 我々は、ポイントクラウド事前学習モデルのためのインスタンス対応動的プロンプトチューニング(IDPT)を提案する。
実験では、IDPTはトレーニング可能なパラメータのわずか7%で、ほとんどのタスクにおいて完全な微調整よりも優れています。
- 参考スコア(独自算出の注目度): 64.49254199311137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, pre-trained point cloud models have found extensive applications in
downstream tasks like object classification. However, these tasks often require
{full fine-tuning} of models and lead to storage-intensive procedures, thus
limiting the real applications of pre-trained models. Inspired by the great
success of visual prompt tuning (VPT) in vision, we attempt to explore prompt
tuning, which serves as an efficient alternative to full fine-tuning for
large-scale models, to point cloud pre-trained models to reduce storage costs.
However, it is non-trivial to apply the traditional static VPT to point clouds,
owing to the distribution diversity of point cloud data. For instance, the
scanned point clouds exhibit various types of missing or noisy points. To
address this issue, we propose an Instance-aware Dynamic Prompt Tuning (IDPT)
for point cloud pre-trained models, which utilizes a prompt module to perceive
the semantic prior features of each instance. This semantic prior facilitates
the learning of unique prompts for each instance, thus enabling downstream
tasks to robustly adapt to pre-trained point cloud models. Notably, extensive
experiments conducted on downstream tasks demonstrate that IDPT outperforms
full fine-tuning in most tasks with a mere 7\% of the trainable parameters,
thus significantly reducing the storage pressure. Code is available at
\url{https://github.com/zyh16143998882/IDPT}.
- Abstract(参考訳): 最近、事前訓練されたポイントクラウドモデルは、オブジェクト分類のような下流タスクに広範囲に応用されている。
しかし、これらのタスクは、しばしばモデルの完全な微調整を必要とし、ストレージ集約的な手順につながるため、事前訓練されたモデルの実際の応用は制限される。
視覚における視覚的プロンプトチューニング(VPT)の大成功に触発されて,大規模モデルのフル微調整の代替として有効なプロンプトチューニングを探究し,クラウド事前学習モデルを指してストレージコストを削減する。
しかし、ポイントクラウドデータの分布の多様性のため、従来の静的VPTをポイントクラウドに適用するのは簡単ではない。
例えば、スキャンされた点雲は様々な種類の欠点やノイズ点を示す。
この問題に対処するために、各インスタンスのセマンティックな事前特徴を認識するためにプロンプトモジュールを利用する、ポイントクラウド事前訓練モデルのためのインスタンス対応動的プロンプトチューニング(IDPT)を提案する。
このセマンティクスは、各インスタンスのユニークなプロンプトの学習を促進するため、ダウンストリームタスクがトレーニング済みのポイントクラウドモデルに堅牢に適応できるようにする。
特に、下流タスクで実施された広範囲な実験により、IDTはトレーニング可能なパラメータのわずか7倍の精度で、ほとんどのタスクにおいて完全な微調整よりも優れており、保存圧が著しく低下することが示された。
コードは \url{https://github.com/zyh16143998882/idpt} で入手できる。
関連論文リスト
- Parameter-Efficient Fine-Tuning in Spectral Domain for Point Cloud Learning [49.91297276176978]
私たちは小説を提案します。
ポイントGST (Point GST) と呼ばれる点雲の効率的な微細調整法。
ポイントGSTは事前トレーニングされたモデルを凍結し、スペクトル領域のパラメータを微調整するためのトレーニング可能なポイントクラウドスペクトルアダプタ(PCSA)を導入する。
挑戦的なポイントクラウドデータセットに関する大規模な実験は、ポイントGSTが完全に微調整されたデータセットを上回るだけでなく、トレーニング可能なパラメータを大幅に削減することを示した。
論文 参考訳(メタデータ) (2024-10-10T17:00:04Z) - Dynamic Adapter Meets Prompt Tuning: Parameter-Efficient Transfer Learning for Point Cloud Analysis [51.14136878142034]
ポイントクラウド分析は、事前訓練されたモデルのポイントクラウドの転送によって、優れたパフォーマンスを実現している。
モデル適応のための既存の方法は通常、高い計算コストに依存するため、非効率な全てのモデルパラメータを更新する。
本稿では,タスク性能とパラメータ効率のトレードオフを考慮した,ポイントクラウド解析のためのパラメータ効率変換学習を提案する。
論文 参考訳(メタデータ) (2024-03-03T08:25:04Z) - Adaptive Point Transformer [88.28498667506165]
Adaptive Point Cloud Transformer (AdaPT) は、適応トークン選択機構によって強化された標準PTモデルである。
AdaPTは推論中のトークン数を動的に削減し、大きな点雲の効率的な処理を可能にする。
論文 参考訳(メタデータ) (2024-01-26T13:24:45Z) - Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - Point-PEFT: Parameter-Efficient Fine-Tuning for 3D Pre-trained Models [46.42092771753465]
我々は、最小限の学習可能なパラメータを持つポイントクラウド事前学習モデルに適用するための新しいフレームワークであるPoint-PEFTを紹介する。
具体的には、事前訓練された3Dモデルに対して、パラメータの大部分を凍結し、新たに追加されたPEFTモジュールを下流タスクでチューニングする。
論文 参考訳(メタデータ) (2023-10-04T16:49:36Z) - Test-Time Adaptation for Point Cloud Upsampling Using Meta-Learning [17.980649681325406]
本稿では,点群アップサンプリングのモデル一般性を高めるためのテスト時間適応手法を提案する。
提案手法はメタラーニングを利用してテスト時間適応のためのネットワークパラメータを明示的に学習する。
我々のフレームワークは汎用的であり、既存のバックボーンネットワークをポイントクラウドのアップサンプリングにプラグイン・アンド・プレイで適用することができる。
論文 参考訳(メタデータ) (2023-08-31T06:44:59Z) - PointGPT: Auto-regressively Generative Pre-training from Point Clouds [45.488532108226565]
我々はGPTの概念を点雲に拡張する新しいアプローチであるPointGPTを提案する。
具体的には、変圧器モデルの事前訓練に対して、ポイントクラウド自動回帰生成タスクを提案する。
提案手法は,ModelNet40データセットで94.9%,ScanObjectNNデータセットで93.4%の分類精度を達成し,他のトランスフォーマーモデルよりも優れている。
論文 参考訳(メタデータ) (2023-05-19T07:39:04Z) - Visual Prompt Tuning [74.5309408185523]
本稿では,視覚における大規模トランスフォーマーモデルの完全微調整の代替として,視覚プロンプトチューニング(VPT)を提案する。
VPTは、モデルのバックボーンを凍結させながら、入力空間でトレーニング可能なパラメータの少量(モデルパラメータの1%未満)しか導入しない。
論文 参考訳(メタデータ) (2022-03-23T01:17:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。