論文の概要: Point Cloud Pre-training by Mixing and Disentangling
- arxiv url: http://arxiv.org/abs/2109.00452v1
- Date: Wed, 1 Sep 2021 15:52:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-02 14:19:01.947127
- Title: Point Cloud Pre-training by Mixing and Disentangling
- Title(参考訳): 混合・解離によるポイントクラウド事前学習
- Authors: Chao Sun, Zhedong Zheng and Yi Yang
- Abstract要約: Mixing and Disentangling (MD)は、ポイントクラウド事前トレーニングのための自己教師付き学習アプローチである。
我々は,エンコーダ+我々の(MD)が,スクラッチから訓練したエンコーダを著しく上回り,迅速に収束することを示す。
この自己教師型学習によるポイントクラウドの試みが、大規模ラベル付きデータへの深い学習モデル依存を減らす道を開くことを願っている。
- 参考スコア(独自算出の注目度): 35.18101910728478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The annotation for large-scale point clouds is still time-consuming and
unavailable for many real-world tasks. Point cloud pre-training is one
potential solution for obtaining a scalable model for fast adaptation.
Therefore, in this paper, we investigate a new self-supervised learning
approach, called Mixing and Disentangling (MD), for point cloud pre-training.
As the name implies, we explore how to separate the original point cloud from
the mixed point cloud, and leverage this challenging task as a pretext
optimization objective for model training. Considering the limited training
data in the original dataset, which is much less than prevailing ImageNet, the
mixing process can efficiently generate more high-quality samples. We build one
baseline network to verify our intuition, which simply contains two modules,
encoder and decoder. Given a mixed point cloud, the encoder is first
pre-trained to extract the semantic embedding. Then an instance-adaptive
decoder is harnessed to disentangle the point clouds according to the
embedding. Albeit simple, the encoder is inherently able to capture the point
cloud keypoints after training and can be fast adapted to downstream tasks
including classification and segmentation by the pre-training and fine-tuning
paradigm. Extensive experiments on two datasets show that the encoder + ours
(MD) significantly surpasses that of the encoder trained from scratch and
converges quickly. In ablation studies, we further study the effect of each
component and discuss the advantages of the proposed self-supervised learning
strategy. We hope this self-supervised learning attempt on point clouds can
pave the way for reducing the deeply-learned model dependence on large-scale
labeled data and saving a lot of annotation costs in the future.
- Abstract(参考訳): 大規模なポイントクラウドのアノテーションはまだ時間がかかり、多くの現実世界のタスクでは利用できない。
ポイントクラウド事前トレーニングは、高速適応のためのスケーラブルなモデルを得るための潜在的な解決策の1つである。
そこで本研究では,ポイントクラウド事前学習のためのMixing and Disentangling(MD)と呼ばれる,自己教師型学習手法について検討する。
名前の通り、我々は元のpoint cloudをmixed point cloudから分離する方法を検討し、この挑戦的なタスクをモデルトレーニングのプリテキスト最適化の目的として活用する。
ImageNetよりもはるかに少ないオリジナルのデータセットの限られたトレーニングデータを考えると、混合プロセスはより高品質なサンプルを効率的に生成することができる。
直感を検証するために,エンコーダとデコーダの2つのモジュールを単純に含むベースラインネットワークを構築した。
混合点雲が与えられた後、エンコーダはまずセマンティック埋め込みを抽出するために事前訓練される。
次に、インスタンス適応デコーダを使用して、埋め込みに応じて点雲をアンタングルする。
シンプルではあるが、エンコーダは本質的にトレーニング後にポイントクラウドキーポイントをキャプチャでき、事前トレーニングと微調整パラダイムによる分類やセグメンテーションを含む下流タスクに素早く適応することができる。
2つのデータセットに関する広範囲な実験により、エンコーダ + ours (md) がスクラッチからトレーニングされたエンコーダのそれを大幅に越え、急速に収束することが示された。
アブレーション研究において,各成分の効果をさらに検討し,提案する自己教師付き学習戦略の利点について考察する。
ポイントクラウドに対するこの自己教師型学習の試みは、大規模ラベル付きデータへの深い学習モデル依存を減らし、将来多くのアノテーションコストを節約する道を開くことを願っている。
関連論文リスト
- Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - PRED: Pre-training via Semantic Rendering on LiDAR Point Clouds [18.840000859663153]
本稿では,屋外点雲のための画像支援事前学習フレームワークPreDを提案する。
我々のフレームワークの主な構成要素は、Birds-Eye-View (BEV) 機能マップ条件付きセマンティックレンダリングである。
我々は、高マスキング比のポイントワイドマスクを組み込むことにより、モデルの性能をさらに向上させる。
論文 参考訳(メタデータ) (2023-11-08T07:26:09Z) - GeoMAE: Masked Geometric Target Prediction for Self-supervised Point
Cloud Pre-Training [16.825524577372473]
幾何学的特徴再構成に基づくポイントクラウド表現学習フレームワークを提案する。
我々は,3つの自己教師型学習目標を特異点雲,すなわちセントロイド予測,正規推定,曲率予測と同定する。
私たちのパイプラインは概念的にはシンプルで、まずポイントのグループをランダムにマスキングし、次にTransformerベースのポイントクラウドエンコーダという2つの大きなステップで構成されています。
論文 参考訳(メタデータ) (2023-05-15T17:14:55Z) - Weakly Supervised Semantic Segmentation for Large-Scale Point Cloud [69.36717778451667]
大規模なポイントクラウドセマンティックセグメンテーションのための既存の方法は、高価な、退屈でエラーを起こしやすい手動のポイントワイドアノテーションを必要とする。
この問題を解決するために,2つのコンポーネントを含む効果的な弱教師付き手法を提案する。
実験結果から,既存の弱教師付き手法と完全教師付き手法を比較検討した。
論文 参考訳(メタデータ) (2022-12-09T09:42:26Z) - EPCL: Frozen CLIP Transformer is An Efficient Point Cloud Encoder [60.52613206271329]
本稿では,冷凍CLIP変換器を用いて高品質のクラウドモデルをトレーニングするための textbfEfficient textbfPoint textbfCloud textbfLearning (EPCL) を提案する。
我々のEPCLは、2D-3Dデータをペア化せずに画像の特徴と点雲の特徴を意味的に整合させることで、2Dと3Dのモダリティを接続する。
論文 参考訳(メタデータ) (2022-12-08T06:27:11Z) - PointCaM: Cut-and-Mix for Open-Set Point Cloud Learning [72.07350827773442]
我々は,新しいポイントカット・アンド・ミクス機構を用いて,オープンセットのクラウド学習を解決することを提案する。
トレーニング段階では,Unknown-Point Simulatorを用いてアウト・オブ・ディストリビューションデータをシミュレートする。
Unknown-Point Estimatorモジュールは、既知のデータを識別するために、ポイントクラウドの機能コンテキストを活用することを学ぶ。
論文 参考訳(メタデータ) (2022-12-05T03:53:51Z) - Self-Supervised Arbitrary-Scale Point Clouds Upsampling via Implicit
Neural Representation [79.60988242843437]
そこで本研究では,自己監督型および倍率フレキシブルな点雲を同時にアップサンプリングする手法を提案する。
実験結果から, 自己教師あり学習に基づく手法は, 教師あり学習に基づく手法よりも, 競争力や性能が向上することが示された。
論文 参考訳(メタデータ) (2022-04-18T07:18:25Z) - Upsampling Autoencoder for Self-Supervised Point Cloud Learning [11.19408173558718]
人間のアノテーションを使わずに、ポイントクラウド学習のための自己教師付き事前学習モデルを提案する。
アップサンプリング操作は、ポイントクラウドの高レベルセマンティック情報と低レベル幾何情報の両方を捕捉することをネットワークに促す。
我々のUAEは、形状分類、部分分割、点雲アップサンプリングタスクにおいて、従来の最先端手法よりも優れています。
論文 参考訳(メタデータ) (2022-03-21T07:20:37Z) - Unsupervised Representation Learning for 3D Point Cloud Data [66.92077180228634]
我々は、教師なしのポイントクラウド学習に対して、シンプルで効果的なアプローチを提案する。
特に、原点雲の優れたコントラストバージョンを生成する非常に有用な変換を同定する。
本研究では,3次元オブジェクト分類,形状部分分割,シーン分割の3つの下流タスクについて実験を行った。
論文 参考訳(メタデータ) (2021-10-13T10:52:45Z) - Unsupervised Point Cloud Pre-Training via Occlusion Completion [18.42664414305454]
点雲に対する簡単な事前学習アプローチについて述べる。
カメラビューに隠された全てのポイントをマスクする 2. 隠されたポイントを再構築するためにエンコーダ・デコーダモデルを学ぶ 3. 下流のクラウドタスクの初期化としてエンコーダ重みを使用する。
論文 参考訳(メタデータ) (2020-10-02T16:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。