論文の概要: Point-McBert: A Multi-choice Self-supervised Framework for Point Cloud
Pre-training
- arxiv url: http://arxiv.org/abs/2207.13226v1
- Date: Wed, 27 Jul 2022 00:34:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:22:04.773279
- Title: Point-McBert: A Multi-choice Self-supervised Framework for Point Cloud
Pre-training
- Title(参考訳): Point-McBert: ポイントクラウド事前トレーニングのための複数選択の自己管理フレームワーク
- Authors: Kexue Fu, Mingzhi Yuan, Manning Wang
- Abstract要約: 我々は、簡易かつ洗練された監視信号を持つ事前学習フレームワークであるPoint-McBertを提案する。
具体的には、パッチに対する以前の単一選択制約を緩和し、各パッチに対するマルチ選択トークンIDを監督として提供します。
提案手法は,ModelNet40の94.1%の精度,ScanObjectNNの難易度84.28%の精度,および数ショット学習における新しい最先端性能を実現する。
- 参考スコア(独自算出の注目度): 6.037383467521294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Masked language modeling (MLM) has become one of the most successful
self-supervised pre-training task. Inspired by its success, Point-Bert, as a
pioneer work in point cloud, proposed masked point modeling (MPM) to pre-train
point transformer on large scale unanotated dataset. Despite its great
performance, we find inherent difference between language and point cloud tends
to cause ambiguous tokenization for point cloud. For point cloud, there doesn't
exist a gold standard for point cloud tokenization. Although Point-Bert
introduce a discrete Variational AutoEncoder (dVAE) as tokenizer to allocate
token ids to local patches, it tends to generate ambigious token ids for local
patches. We find this imperfect tokenizer might generate different token ids
for semantically-similar patches and same token ids for semantically-dissimilar
patches. To tackle above problem, we propose our Point-McBert, a pre-training
framework with eased and refined supervision signals. Specifically, we ease the
previous single-choice constraint on patches, and provide multi-choice token
ids for each patch as supervision. Moreover, we utilitze the high-level
semantics learned by transformer to further refine our supervision signals.
Extensive experiments on point cloud classification, few-shot classification
and part segmentation tasks demonstrate the superiority of our method, e.g.,
the pre-trained transformer achieves 94.1% accuracy on ModelNet40, 84.28%
accuracy on the hardest setting of ScanObjectNN and new state-of-the-art
performance on few-shot learning. We also demonstrate that our method not only
improves the performance of Point-Bert on all downstream tasks, but also incurs
almost no extra computational overhead.
- Abstract(参考訳): Masked Language Modeling (MLM)は、最も成功した自己教師付き事前訓練タスクの1つである。
その成功に触発されて、point-bertはpoint cloudの先駆的研究として、大規模な無記名データセットで事前トレインポイントトランスフォーマーを行うためのマスクドポイントモデリング(mpm)を提案した。
優れたパフォーマンスにもかかわらず、言語とポイントクラウドの固有の違いは、ポイントクラウドに対して曖昧なトークン化を引き起こす傾向がある。
ポイントクラウドについては、ポイントクラウドトークン化のゴールド標準は存在しません。
Point-Bertは、トークンIDをローカルパッチに割り当てるトークンライザとして、離散変分オートエンコーダ(dVAE)を導入したが、ローカルパッチに対して曖昧なトークンIDを生成する傾向がある。
この不完全なトークン化器は意味的に類似したパッチに対して異なるトークンIDを生成し、意味的に異なるパッチに対して同じトークンIDを生成する可能性がある。
上記の問題に対処するため、我々は、簡易かつ洗練された監視信号を備えた事前学習フレームワークであるPoint-McBertを提案する。
具体的には、パッチに対する以前の単一選択制約を緩和し、各パッチに対するマルチ選択トークンIDを監督として提供します。
さらに,トランスフォーマによって学習された高レベルセマンティクスを活用し,監督信号をさらに洗練する。
例えば、事前学習したトランスフォーマーはModelNet40の94.1%の精度、ScanObjectNNの最も難しい設定での84.28%の精度、および少ショット学習における新しい最先端性能を達成している。
また,本手法は,各下流タスクにおけるポイントバートの性能を向上するだけでなく,余分な計算オーバーヘッドを伴わないことを示した。
関連論文リスト
- Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - FreePoint: Unsupervised Point Cloud Instance Segmentation [72.64540130803687]
点クラウド上の教師なしクラス非依存のインスタンスセグメンテーションを探索するためのFreePointを提案する。
我々は、座標、色、そして自己監督の深い特徴を組み合わせることで、点の特徴を表現する。
ポイント機能に基づいて、ポイントクラウドを擬似ラベルとして粗いインスタンスマスクに分割し、ポイントクラウドインスタンスセグメンテーションモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-05-11T16:56:26Z) - PointPatchMix: Point Cloud Mixing with Patch Scoring [58.58535918705736]
我々は、パッチレベルでポイントクラウドを混合し、混合ポイントクラウドのコンテンツベースターゲットを生成するPointPatchMixを提案する。
パッチスコアリングモジュールは、事前学習した教師モデルから、コンテンツに基づく重要度スコアに基づいて目標を割り当てる。
Point-MAE をベースラインとして,ScanObjectNN では86.3%,ModelNet40 では94.1% の精度で,従来の手法をかなり上回りました。
論文 参考訳(メタデータ) (2023-03-12T14:49:42Z) - Weakly Supervised Semantic Segmentation for Large-Scale Point Cloud [69.36717778451667]
大規模なポイントクラウドセマンティックセグメンテーションのための既存の方法は、高価な、退屈でエラーを起こしやすい手動のポイントワイドアノテーションを必要とする。
この問題を解決するために,2つのコンポーネントを含む効果的な弱教師付き手法を提案する。
実験結果から,既存の弱教師付き手法と完全教師付き手法を比較検討した。
論文 参考訳(メタデータ) (2022-12-09T09:42:26Z) - EPCL: Frozen CLIP Transformer is An Efficient Point Cloud Encoder [60.52613206271329]
本稿では,冷凍CLIP変換器を用いて高品質のクラウドモデルをトレーニングするための textbfEfficient textbfPoint textbfCloud textbfLearning (EPCL) を提案する。
我々のEPCLは、2D-3Dデータをペア化せずに画像の特徴と点雲の特徴を意味的に整合させることで、2Dと3Dのモダリティを接続する。
論文 参考訳(メタデータ) (2022-12-08T06:27:11Z) - Masked Autoencoders in 3D Point Cloud Representation Learning [7.617783375837524]
3Dポイントクラウド表現学習におけるマスク付きオートエンコーダを提案する(略してMAE3D)。
最初はインプットポイントクラウドをパッチに分割し、その一部をマスクし、次にPatch Embedding Moduleを使って未成熟のパッチの特徴を抽出しました。
総合的な実験により、ポイントクラウドパッチからMAE3Dによって抽出された局所的特徴が下流分類タスクに有用であることが示されている。
論文 参考訳(メタデータ) (2022-07-04T16:13:27Z) - POS-BERT: Point Cloud One-Stage BERT Pre-Training [34.30767607646814]
POS-BERT(POS-BERT)は,点雲に対する一段階のBERT事前学習法である。
Point-BERTと異なり、トークン化剤は極端に訓練され凍結されている。
POS-BERTは、ポイント-BERTを3.5%上回る最先端の分類精度を達成する。
論文 参考訳(メタデータ) (2022-04-03T04:49:39Z) - Masked Discrimination for Self-Supervised Learning on Point Clouds [27.652157544218234]
マスク付きオートエンコーディングは、画像と言語領域における自己教師型学習において大きな成功を収めた。
PointNetのような標準的なバックボーンは、トレーニング中にマスクによって導入された分散ミスマッチのトレーニングとテストのミスマッチを適切に処理できない。
我々はこのギャップを、ポイントクラウドのための差別マスク事前学習フレームワークMaskPointを提案し、橋渡しする。
論文 参考訳(メタデータ) (2022-03-21T17:57:34Z) - Masked Autoencoders for Point Cloud Self-supervised Learning [27.894216954216716]
本稿では,ポイントクラウドによる自己教師型学習のためのマスク付きオートエンコーダの巧妙なスキームを提案する。
入力点雲を不規則点パッチに分割し、ランダムに高い比で隠蔽する。
標準のトランスフォーマーベースのオートエンコーダは、非対称な設計とシフトマスクトークン操作を備え、非マスク点パッチから高い遅延特徴を学習する。
論文 参考訳(メタデータ) (2022-03-13T09:23:39Z) - Point-BERT: Pre-training 3D Point Cloud Transformers with Masked Point
Modeling [104.82953953453503]
BERTの概念を3Dポイントクラウドに一般化するための新しいパラダイムであるPoint-BERTを提案する。
提案したBERTスタイルの事前学習戦略は,標準点クラウドトランスフォーマーの性能を著しく向上することを示す実験である。
論文 参考訳(メタデータ) (2021-11-29T18:59:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。