論文の概要: Point-BERT: Pre-training 3D Point Cloud Transformers with Masked Point
Modeling
- arxiv url: http://arxiv.org/abs/2111.14819v1
- Date: Mon, 29 Nov 2021 18:59:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 14:56:40.673761
- Title: Point-BERT: Pre-training 3D Point Cloud Transformers with Masked Point
Modeling
- Title(参考訳): Point-BERT: Masked Point Modeling を用いた3Dポイントクラウドトランスの事前学習
- Authors: Xumin Yu, Lulu Tang, Yongming Rao, Tiejun Huang, Jie Zhou, Jiwen Lu
- Abstract要約: BERTの概念を3Dポイントクラウドに一般化するための新しいパラダイムであるPoint-BERTを提案する。
提案したBERTスタイルの事前学習戦略は,標準点クラウドトランスフォーマーの性能を著しく向上することを示す実験である。
- 参考スコア(独自算出の注目度): 104.82953953453503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Point-BERT, a new paradigm for learning Transformers to generalize
the concept of BERT to 3D point cloud. Inspired by BERT, we devise a Masked
Point Modeling (MPM) task to pre-train point cloud Transformers. Specifically,
we first divide a point cloud into several local point patches, and a point
cloud Tokenizer with a discrete Variational AutoEncoder (dVAE) is designed to
generate discrete point tokens containing meaningful local information. Then,
we randomly mask out some patches of input point clouds and feed them into the
backbone Transformers. The pre-training objective is to recover the original
point tokens at the masked locations under the supervision of point tokens
obtained by the Tokenizer. Extensive experiments demonstrate that the proposed
BERT-style pre-training strategy significantly improves the performance of
standard point cloud Transformers. Equipped with our pre-training strategy, we
show that a pure Transformer architecture attains 93.8% accuracy on ModelNet40
and 83.1% accuracy on the hardest setting of ScanObjectNN, surpassing carefully
designed point cloud models with much fewer hand-made designs. We also
demonstrate that the representations learned by Point-BERT transfer well to new
tasks and domains, where our models largely advance the state-of-the-art of
few-shot point cloud classification task. The code and pre-trained models are
available at https://github.com/lulutang0608/Point-BERT
- Abstract(参考訳): BERTの概念を3Dポイントクラウドに一般化するための新しいパラダイムであるPoint-BERTを提案する。
BERTにインスパイアされた我々は,masked Point Modeling (MPM) タスクを,事前トレーニングポイントクラウドトランスフォーマーに展開する。
具体的には、まず点雲を複数の局所点パッチに分割し、離散変分オートエンコーダ(dVAE)を備えた点雲Tokenizerは、意味のある局所情報を含む離散点トークンを生成するように設計されている。
次に、入力ポイントクラウドのパッチをランダムにマスクして、バックボーントランスフォーマーに供給します。
事前訓練の目的は、Tokenizerが取得したポイントトークンの監督の下で、マスクされた場所で元のポイントトークンを復元することである。
提案したBERTスタイルの事前学習戦略が,標準点雲変換器の性能を著しく向上することを示した。
プリトレーニング戦略を備えることにより,純トランスフォーマーアーキテクチャは,modelnet40では93.8%,最も難しいscanobjectnnでは83.1%の精度を達成し,手作り設計がはるかに少ない注意深く設計されたポイントクラウドモデルを上回ることを示した。
私たちはまた、Point-BERTが学んだ表現が新しいタスクやドメインにうまく移行していることを示し、そこでは、我々のモデルは、ほとんどショットされていないポイントクラウド分類タスクの最先端に大きく前進している。
コードと事前訓練されたモデルはhttps://github.com/lulutang0608/Point-BERTで入手できる。
関連論文リスト
- Pre-training Point Cloud Compact Model with Partial-aware Reconstruction [51.403810709250024]
本稿では, 部分認識型textbfReconstruction を用いた, Point-CPR という事前学習型クラウド圧縮モデルを提案する。
我々のモデルは様々なタスクにおいて強い性能を示し、特にパラメータの2%しか持たない主要なMPMベースモデルであるPointGPT-Bを上回っている。
論文 参考訳(メタデータ) (2024-07-12T15:18:14Z) - Adaptive Point Transformer [88.28498667506165]
Adaptive Point Cloud Transformer (AdaPT) は、適応トークン選択機構によって強化された標準PTモデルである。
AdaPTは推論中のトークン数を動的に削減し、大きな点雲の効率的な処理を可能にする。
論文 参考訳(メタデータ) (2024-01-26T13:24:45Z) - PointGPT: Auto-regressively Generative Pre-training from Point Clouds [45.488532108226565]
我々はGPTの概念を点雲に拡張する新しいアプローチであるPointGPTを提案する。
具体的には、変圧器モデルの事前訓練に対して、ポイントクラウド自動回帰生成タスクを提案する。
提案手法は,ModelNet40データセットで94.9%,ScanObjectNNデータセットで93.4%の分類精度を達成し,他のトランスフォーマーモデルよりも優れている。
論文 参考訳(メタデータ) (2023-05-19T07:39:04Z) - PointPatchMix: Point Cloud Mixing with Patch Scoring [58.58535918705736]
我々は、パッチレベルでポイントクラウドを混合し、混合ポイントクラウドのコンテンツベースターゲットを生成するPointPatchMixを提案する。
パッチスコアリングモジュールは、事前学習した教師モデルから、コンテンツに基づく重要度スコアに基づいて目標を割り当てる。
Point-MAE をベースラインとして,ScanObjectNN では86.3%,ModelNet40 では94.1% の精度で,従来の手法をかなり上回りました。
論文 参考訳(メタデータ) (2023-03-12T14:49:42Z) - AdaPoinTr: Diverse Point Cloud Completion with Adaptive Geometry-Aware
Transformers [94.11915008006483]
本稿では,ポイントクラウドの完了をセット・ツー・セットの翻訳問題として再定義する手法を提案する。
我々は、ポイントクラウド補完のためにTransformerエンコーダデコーダアーキテクチャを採用したPoinTrと呼ばれる新しいモデルを設計する。
本手法は,PCNで6.53 CD,ShapeNet-55で0.81 CD,現実世界のKITTIで0.392 MMDを実現する。
論文 参考訳(メタデータ) (2023-01-11T16:14:12Z) - Point-McBert: A Multi-choice Self-supervised Framework for Point Cloud
Pre-training [6.037383467521294]
我々は、簡易かつ洗練された監視信号を持つ事前学習フレームワークであるPoint-McBertを提案する。
具体的には、パッチに対する以前の単一選択制約を緩和し、各パッチに対するマルチ選択トークンIDを監督として提供します。
提案手法は,ModelNet40の94.1%の精度,ScanObjectNNの難易度84.28%の精度,および数ショット学習における新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-27T00:34:33Z) - POS-BERT: Point Cloud One-Stage BERT Pre-Training [34.30767607646814]
POS-BERT(POS-BERT)は,点雲に対する一段階のBERT事前学習法である。
Point-BERTと異なり、トークン化剤は極端に訓練され凍結されている。
POS-BERTは、ポイント-BERTを3.5%上回る最先端の分類精度を達成する。
論文 参考訳(メタデータ) (2022-04-03T04:49:39Z) - Masked Autoencoders for Point Cloud Self-supervised Learning [27.894216954216716]
本稿では,ポイントクラウドによる自己教師型学習のためのマスク付きオートエンコーダの巧妙なスキームを提案する。
入力点雲を不規則点パッチに分割し、ランダムに高い比で隠蔽する。
標準のトランスフォーマーベースのオートエンコーダは、非対称な設計とシフトマスクトークン操作を備え、非マスク点パッチから高い遅延特徴を学習する。
論文 参考訳(メタデータ) (2022-03-13T09:23:39Z) - PoinTr: Diverse Point Cloud Completion with Geometry-Aware Transformers [81.71904691925428]
本稿では,ポイントクラウドの完了をセット・ツー・セットの翻訳問題として再定義する手法を提案する。
我々はまた、ポイントクラウド補完のためにトランスフォーマーエンコーダデコーダアーキテクチャを採用するPoinTrと呼ばれる新しいモデルも設計している。
提案手法は,新しいベンチマークと既存ベンチマークの両方において,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T17:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。