論文の概要: POS-BERT: Point Cloud One-Stage BERT Pre-Training
- arxiv url: http://arxiv.org/abs/2204.00989v1
- Date: Sun, 3 Apr 2022 04:49:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 15:32:30.489560
- Title: POS-BERT: Point Cloud One-Stage BERT Pre-Training
- Title(参考訳): POS-BERT:ポイントクラウドワンステージBERT事前トレーニング
- Authors: Kexue Fu, Peng Gao, ShaoLei Liu, Renrui Zhang, Yu Qiao, Manning Wang
- Abstract要約: POS-BERT(POS-BERT)は,点雲に対する一段階のBERT事前学習法である。
Point-BERTと異なり、トークン化剤は極端に訓練され凍結されている。
POS-BERTは、ポイント-BERTを3.5%上回る最先端の分類精度を達成する。
- 参考スコア(独自算出の注目度): 34.30767607646814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, the pre-training paradigm combining Transformer and masked language
modeling has achieved tremendous success in NLP, images, and point clouds, such
as BERT. However, directly extending BERT from NLP to point clouds requires
training a fixed discrete Variational AutoEncoder (dVAE) before pre-training,
which results in a complex two-stage method called Point-BERT. Inspired by BERT
and MoCo, we propose POS-BERT, a one-stage BERT pre-training method for point
clouds. Specifically, we use the mask patch modeling (MPM) task to perform
point cloud pre-training, which aims to recover masked patches information
under the supervision of the corresponding tokenizer output. Unlike Point-BERT,
its tokenizer is extra-trained and frozen. We propose to use the dynamically
updated momentum encoder as the tokenizer, which is updated and outputs the
dynamic supervision signal along with the training process. Further, in order
to learn high-level semantic representation, we combine contrastive learning to
maximize the class token consistency between different transformation point
clouds. Extensive experiments have demonstrated that POS-BERT can extract
high-quality pre-training features and promote downstream tasks to improve
performance. Using the pre-training model without any fine-tuning to extract
features and train linear SVM on ModelNet40, POS-BERT achieves the
state-of-the-art classification accuracy, which exceeds Point-BERT by 3.5\%. In
addition, our approach has significantly improved many downstream tasks, such
as fine-tuned classification, few-shot classification, part segmentation. The
code and trained-models will be available at:
\url{https://github.com/fukexue/POS-BERT}.
- Abstract(参考訳): 近年,Transformerとマスク付き言語モデリングを組み合わせた事前学習パラダイムが,NLP,画像,BERTなどの点雲において大きな成功を収めている。
しかしながら、BERT を NLP から点クラウドへ直接拡張するには、事前トレーニング前に固定された離散変分オートエンコーダ (dVAE) を訓練する必要がある。
BERT と MoCo にヒントを得て,一段階の BERT 事前学習手法である POS-BERT を提案する。
具体的には、マスクパッチモデリング(MPM)タスクを用いてポイントクラウド事前トレーニングを行い、対応するトークン化器出力の監督の下でマスクパッチ情報を復元する。
Point-BERTと異なり、トークン化剤は極端に訓練され凍結されている。
本稿では,動的に更新された運動量エンコーダをトークン化器として使用し,動的監視信号をトレーニングプロセスとともに出力する。
さらに、ハイレベルな意味表現を学ぶために、異なる変換ポイントクラウド間のクラストークン一貫性を最大化するために、コントラスト学習を組み合わせる。
POS-BERTは、高品質な事前学習機能を抽出し、ダウンストリームタスクを促進し、パフォーマンスを向上させることを実証している。
POS-BERT は,モデルNet40 上の特徴抽出や線形SVM の訓練に微調整のない事前学習モデルを用いて,ポイント-BERT を超える最先端の分類精度を 3.5 % で達成する。
さらに,本手法は,微調整分類,少数ショット分類,部分分割などの下流タスクを大幅に改善した。
コードは \url{https://github.com/fukexue/pos-bert} で利用可能である。
関連論文リスト
- Unsupervised Pre-training with Language-Vision Prompts for Low-Data Instance Segmentation [105.23631749213729]
低データ体制における教師なし事前学習のための新しい手法を提案する。
最近成功したプロンプト技術に触発されて,言語ビジョンプロンプトを用いた教師なし事前学習法を導入した。
提案手法は,低データ方式のCNNモデルよりも高速に収束し,性能がよいことを示す。
論文 参考訳(メタデータ) (2024-05-22T06:48:43Z) - Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - PointGPT: Auto-regressively Generative Pre-training from Point Clouds [45.488532108226565]
我々はGPTの概念を点雲に拡張する新しいアプローチであるPointGPTを提案する。
具体的には、変圧器モデルの事前訓練に対して、ポイントクラウド自動回帰生成タスクを提案する。
提案手法は,ModelNet40データセットで94.9%,ScanObjectNNデータセットで93.4%の分類精度を達成し,他のトランスフォーマーモデルよりも優れている。
論文 参考訳(メタデータ) (2023-05-19T07:39:04Z) - Instance-aware Dynamic Prompt Tuning for Pre-trained Point Cloud Models [64.49254199311137]
本稿では,事前学習点クラウドモデルのための新しいインスタンス対応動的プロンプトチューニング(IDPT)戦略を提案する。
IDPTの本質は、各ポイントクラウドインスタンスのセマンティックな事前特徴を知覚する動的プロンプト生成モジュールを開発することである。
実験では、IDPTはトレーニング可能なパラメータのわずか7%で、ほとんどのタスクにおいて完全な微調整よりも優れています。
論文 参考訳(メタデータ) (2023-04-14T16:03:09Z) - Boosting Low-Data Instance Segmentation by Unsupervised Pre-training
with Saliency Prompt [103.58323875748427]
この研究は、低データ体制のための新しい教師なし事前学習ソリューションを提供する。
近年のPrompting技術の成功に触発されて,QEISモデルを強化した新しい事前学習手法を導入する。
実験結果から,本手法は3つのデータセット上でのいくつかのQEISモデルを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-02-02T15:49:03Z) - EPCL: Frozen CLIP Transformer is An Efficient Point Cloud Encoder [60.52613206271329]
本稿では,冷凍CLIP変換器を用いて高品質のクラウドモデルをトレーニングするための textbfEfficient textbfPoint textbfCloud textbfLearning (EPCL) を提案する。
我々のEPCLは、2D-3Dデータをペア化せずに画像の特徴と点雲の特徴を意味的に整合させることで、2Dと3Dのモダリティを接続する。
論文 参考訳(メタデータ) (2022-12-08T06:27:11Z) - Point-McBert: A Multi-choice Self-supervised Framework for Point Cloud
Pre-training [6.037383467521294]
我々は、簡易かつ洗練された監視信号を持つ事前学習フレームワークであるPoint-McBertを提案する。
具体的には、パッチに対する以前の単一選択制約を緩和し、各パッチに対するマルチ選択トークンIDを監督として提供します。
提案手法は,ModelNet40の94.1%の精度,ScanObjectNNの難易度84.28%の精度,および数ショット学習における新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-27T00:34:33Z) - Point-BERT: Pre-training 3D Point Cloud Transformers with Masked Point
Modeling [104.82953953453503]
BERTの概念を3Dポイントクラウドに一般化するための新しいパラダイムであるPoint-BERTを提案する。
提案したBERTスタイルの事前学習戦略は,標準点クラウドトランスフォーマーの性能を著しく向上することを示す実験である。
論文 参考訳(メタデータ) (2021-11-29T18:59:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。