論文の概要: Masked Discrimination for Self-Supervised Learning on Point Clouds
- arxiv url: http://arxiv.org/abs/2203.11183v1
- Date: Mon, 21 Mar 2022 17:57:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 17:23:07.762947
- Title: Masked Discrimination for Self-Supervised Learning on Point Clouds
- Title(参考訳): 点雲上の自己教師付き学習のためのマスク付き識別
- Authors: Haotian Liu, Mu Cai, Yong Jae Lee
- Abstract要約: マスク付きオートエンコーディングは、画像と言語領域における自己教師型学習において大きな成功を収めた。
PointNetのような標準的なバックボーンは、トレーニング中にマスクによって導入された分散ミスマッチのトレーニングとテストのミスマッチを適切に処理できない。
我々はこのギャップを、ポイントクラウドのための差別マスク事前学習フレームワークMaskPointを提案し、橋渡しする。
- 参考スコア(独自算出の注目度): 27.652157544218234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Masked autoencoding has achieved great success for self-supervised learning
in the image and language domains. However, mask based pretraining has yet to
show benefits for point cloud understanding, likely due to standard backbones
like PointNet being unable to properly handle the training versus testing
distribution mismatch introduced by masking during training. In this paper, we
bridge this gap by proposing a discriminative mask pretraining Transformer
framework, MaskPoint}, for point clouds. Our key idea is to represent the point
cloud as discrete occupancy values (1 if part of the point cloud; 0 if not),
and perform simple binary classification between masked object points and
sampled noise points as the proxy task. In this way, our approach is robust to
the point sampling variance in point clouds, and facilitates learning rich
representations. We evaluate our pretrained models across several downstream
tasks, including 3D shape classification, segmentation, and real-word object
detection, and demonstrate state-of-the-art results while achieving a
significant pretraining speedup (e.g., 4.1x on ScanNet) compared to the prior
state-of-the-art Transformer baseline. Code will be publicly available at
https://github.com/haotian-liu/MaskPoint.
- Abstract(参考訳): マスク付き自動エンコーディングは、画像と言語領域における自己教師あり学習で大きな成功を収めた。
しかし、マスクベースの事前トレーニングは、おそらくpointnetのような標準的なバックボーンがトレーニング中にマスクによって引き起こされたテスト分散ミスマッチを適切に処理できないため、ポイントクラウド理解の利点をまだ示していない。
本稿では,このギャップを,点雲に対する識別マスク事前学習型トランスフォーマーフレームワークMaskPointの提案により埋める。
私たちの重要なアイデアは、ポイントクラウドを離散的な占有率(ポイントクラウドの一部なら1、そうでないなら0)として表現し、マスクされたオブジェクトポイントとサンプルされたノイズポイントをプロキシタスクとして単純なバイナリ分類を行うことです。
このようにして、我々のアプローチは点雲における点サンプリング分散に頑健であり、リッチ表現の学習を促進する。
我々は,3次元形状分類,セグメンテーション,実単語オブジェクト検出などの下流タスクを対象とした事前学習モデルの評価を行い,先行学習速度(ScanNetの4.1倍)を従来の最先端トランスフォーマーベースラインと比較した。
コードはhttps://github.com/haotian-liu/MaskPoint.comで公開される。
関連論文リスト
- CPCM: Contextual Point Cloud Modeling for Weakly-supervised Point Cloud
Semantic Segmentation [60.0893353960514]
疎アノテーションを用いた弱教師付きポイントクラウドセマンティックセマンティックセグメンテーションの課題について検討する。
本研究では,地域マスキング(RegionMask)戦略とコンテキストマスキングトレーニング(CMT)手法の2つの部分からなるコンテキストポイントクラウドモデリング(CPCM)手法を提案する。
論文 参考訳(メタデータ) (2023-07-19T04:41:18Z) - Self-supervised adversarial masking for 3D point cloud representation
learning [0.38233569758620056]
本稿では,点雲のマスキング関数を学習するための新しい逆法であるPointCAMを紹介する。
従来の手法と比較して,マスクをランダムに選択するのではなく,マスクの選択方法を学習する補助的ネットワークの適用を仮定する。
以上の結果から,学習したマスキング関数は,様々な下流タスクにおいて,最先端ないし競争的な性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-07-11T15:11:06Z) - FreePoint: Unsupervised Point Cloud Instance Segmentation [72.64540130803687]
点クラウド上の教師なしクラス非依存のインスタンスセグメンテーションを探索するためのFreePointを提案する。
我々は、座標、色、そして自己監督の深い特徴を組み合わせることで、点の特徴を表現する。
ポイント機能に基づいて、ポイントクラウドを擬似ラベルとして粗いインスタンスマスクに分割し、ポイントクラウドインスタンスセグメンテーションモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-05-11T16:56:26Z) - Weakly Supervised Semantic Segmentation for Large-Scale Point Cloud [69.36717778451667]
大規模なポイントクラウドセマンティックセグメンテーションのための既存の方法は、高価な、退屈でエラーを起こしやすい手動のポイントワイドアノテーションを必要とする。
この問題を解決するために,2つのコンポーネントを含む効果的な弱教師付き手法を提案する。
実験結果から,既存の弱教師付き手法と完全教師付き手法を比較検討した。
論文 参考訳(メタデータ) (2022-12-09T09:42:26Z) - Point-McBert: A Multi-choice Self-supervised Framework for Point Cloud
Pre-training [6.037383467521294]
我々は、簡易かつ洗練された監視信号を持つ事前学習フレームワークであるPoint-McBertを提案する。
具体的には、パッチに対する以前の単一選択制約を緩和し、各パッチに対するマルチ選択トークンIDを監督として提供します。
提案手法は,ModelNet40の94.1%の精度,ScanObjectNNの難易度84.28%の精度,および数ショット学習における新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-27T00:34:33Z) - Masked Surfel Prediction for Self-Supervised Point Cloud Learning [40.16043026141161]
マスク付き自動符号化において局所幾何学情報を明示的に考慮する最初の試みを行い,Masked Surfel Prediction (MaskSurf)法を提案する。
具体的には、入力点雲が高い比でマスクされていることを考慮し、トランスフォーマーベースのエンコーダデコーダネットワークを学習し、基礎となるマスク付きサーフを推定する。
MaskSurfは3つの微調整戦略の下で6つの下流タスクで検証される。
論文 参考訳(メタデータ) (2022-07-07T06:47:26Z) - Masked Autoencoders in 3D Point Cloud Representation Learning [7.617783375837524]
3Dポイントクラウド表現学習におけるマスク付きオートエンコーダを提案する(略してMAE3D)。
最初はインプットポイントクラウドをパッチに分割し、その一部をマスクし、次にPatch Embedding Moduleを使って未成熟のパッチの特徴を抽出しました。
総合的な実験により、ポイントクラウドパッチからMAE3Dによって抽出された局所的特徴が下流分類タスクに有用であることが示されている。
論文 参考訳(メタデータ) (2022-07-04T16:13:27Z) - What You See is What You Classify: Black Box Attributions [61.998683569022006]
我々は、トレーニング済みのブラックボックス分類器であるExpplanandumの属性を予測するために、ディープネットワークであるExplainerを訓練する。
既存のほとんどのアプローチとは異なり、我々の手法はクラス固有のマスクを直接生成することができる。
我々の属性は、視覚的および定量的に確立された方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-23T12:30:04Z) - Self-Supervised Arbitrary-Scale Point Clouds Upsampling via Implicit
Neural Representation [79.60988242843437]
そこで本研究では,自己監督型および倍率フレキシブルな点雲を同時にアップサンプリングする手法を提案する。
実験結果から, 自己教師あり学習に基づく手法は, 教師あり学習に基づく手法よりも, 競争力や性能が向上することが示された。
論文 参考訳(メタデータ) (2022-04-18T07:18:25Z) - Unsupervised Representation Learning for 3D Point Cloud Data [66.92077180228634]
我々は、教師なしのポイントクラウド学習に対して、シンプルで効果的なアプローチを提案する。
特に、原点雲の優れたコントラストバージョンを生成する非常に有用な変換を同定する。
本研究では,3次元オブジェクト分類,形状部分分割,シーン分割の3つの下流タスクについて実験を行った。
論文 参考訳(メタデータ) (2021-10-13T10:52:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。