論文の概要: Self-Supervised Learning with Multi-View Rendering for 3D Point Cloud
Analysis
- arxiv url: http://arxiv.org/abs/2210.15904v1
- Date: Fri, 28 Oct 2022 05:23:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 15:39:02.077678
- Title: Self-Supervised Learning with Multi-View Rendering for 3D Point Cloud
Analysis
- Title(参考訳): 3Dポイントクラウド解析のためのマルチビューレンダリングによる自己教師付き学習
- Authors: Bach Tran, Binh-Son Hua, Anh Tuan Tran, Minh Hoai
- Abstract要約: 本稿では,3次元点雲モデルのための新しい事前学習手法を提案する。
我々の事前訓練は、局所的なピクセル/ポイントレベルの対応損失と、大域的な画像/ポイントの雲のレベル損失によって自己管理される。
これらの改善されたモデルは、さまざまなデータセットや下流タスクにおける既存の最先端メソッドよりも優れています。
- 参考スコア(独自算出の注目度): 33.31864436614945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, great progress has been made in 3D deep learning with the emergence
of deep neural networks specifically designed for 3D point clouds. These
networks are often trained from scratch or from pre-trained models learned
purely from point cloud data. Inspired by the success of deep learning in the
image domain, we devise a novel pre-training technique for better model
initialization by utilizing the multi-view rendering of the 3D data. Our
pre-training is self-supervised by a local pixel/point level correspondence
loss computed from perspective projection and a global image/point cloud level
loss based on knowledge distillation, thus effectively improving upon popular
point cloud networks, including PointNet, DGCNN and SR-UNet. These improved
models outperform existing state-of-the-art methods on various datasets and
downstream tasks. We also analyze the benefits of synthetic and real data for
pre-training, and observe that pre-training on synthetic data is also useful
for high-level downstream tasks. Code and pre-trained models are available at
https://github.com/VinAIResearch/selfsup_pcd.
- Abstract(参考訳): 近年、3dポイントクラウド専用に設計されたディープニューラルネットワークが出現し、3dディープラーニングで大きな進歩を遂げている。
これらのネットワークは、スクラッチや、ポイントクラウドデータから純粋に学習されたトレーニング済みモデルからトレーニングされることが多い。
画像領域における深層学習の成功に触発され、3次元データのマルチビューレンダリングを利用してモデル初期化を改善するための新しい事前学習手法を考案した。
我々の事前学習は、視点投影から計算した局所画素/点レベル対応損失と知識蒸留に基づく大域画像/点雲レベル損失により自己管理され、PointNet、DGCNN、SR-UNetなどの人気ポイントクラウドネットワーク上で効果的に改善される。
これらの改善されたモデルは、さまざまなデータセットや下流タスクにおける既存の最先端メソッドよりも優れています。
また、合成データと実データによる事前学習の利点を分析し、合成データによる事前学習が高レベル下流作業にも有用であることを示す。
コードと事前訓練されたモデルはhttps://github.com/VinAIResearch/selfsup_pcd.comで入手できる。
関連論文リスト
- PointRegGPT: Boosting 3D Point Cloud Registration using Generative Point-Cloud Pairs for Training [90.06520673092702]
生成点クラウドペアを用いた3Dポイントクラウドの登録をトレーニングのために促進するPointRegGPTを提案する。
我々の知る限り、これは屋内のクラウド登録のためのリアルなデータ生成を探求する最初の生成的アプローチである。
論文 参考訳(メタデータ) (2024-07-19T06:29:57Z) - AutoSynth: Learning to Generate 3D Training Data for Object Point Cloud
Registration [69.21282992341007]
Auto Synthは、ポイントクラウド登録のための3Dトレーニングデータを自動的に生成する。
私たちはポイントクラウド登録ネットワークをもっと小さなサロゲートネットワークに置き換え、4056.43$のスピードアップを実現しました。
TUD-L,LINEMOD,Occluded-LINEMODに関する我々の研究結果は,検索データセットでトレーニングされたニューラルネットワークが,広く使用されているModelNet40データセットでトレーニングされたニューラルネットワークよりも一貫してパフォーマンスが向上していることを示す。
論文 参考訳(メタデータ) (2023-09-20T09:29:44Z) - Ponder: Point Cloud Pre-training via Neural Rendering [93.34522605321514]
本稿では,識別可能なニューラルエンコーダによる点雲表現の自己教師型学習手法を提案する。
学習したポイントクラウドは、3D検出やセグメンテーションといったハイレベルなレンダリングタスクだけでなく、3D再構成や画像レンダリングといった低レベルなタスクを含む、さまざまなダウンストリームタスクに簡単に統合できる。
論文 参考訳(メタデータ) (2022-12-31T08:58:39Z) - 3D Point Cloud Pre-training with Knowledge Distillation from 2D Images [128.40422211090078]
本稿では,2次元表現学習モデルから直接知識を取得するために,3次元ポイントクラウド事前学習モデルの知識蒸留手法を提案する。
具体的には、3Dポイントクラウドから概念特徴を抽出し、2D画像からの意味情報と比較するクロスアテンション機構を提案する。
このスキームでは,2次元教師モデルに含まれるリッチな情報から,クラウド事前学習モデルを直接学習する。
論文 参考訳(メタデータ) (2022-12-17T23:21:04Z) - P2P: Tuning Pre-trained Image Models for Point Cloud Analysis with
Point-to-Pixel Prompting [94.11915008006483]
本稿では,ポイントクラウド解析のための新しいポイント・ツー・Pixelを提案する。
ScanObjectNNの最も難しい設定では,89.3%の精度が得られる。
また,本フレームワークは,ModelNet分類とShapeNet Part Codeで非常に競争力のある性能を示す。
論文 参考訳(メタデータ) (2022-08-04T17:59:03Z) - Continual learning on 3D point clouds with random compressed rehearsal [10.667104977730304]
本研究では,3Dポイントクラウドデータ上で連続学習が可能なニューラルネットワークアーキテクチャを提案する。
我々は,過去のデータを強く圧縮した集合を保存するために,点雲構造特性を利用する。
論文 参考訳(メタデータ) (2022-05-16T22:59:52Z) - Learning without Forgetting for 3D Point Cloud Objects [7.761414660999872]
新しいクラスに対して、よく訓練されたディープラーニングモデルを微調整すると、ネットワークは新しい概念を学ぶが、古いトレーニングの知識を徐々に忘れていく。
本研究では,3次元データに対する知識蒸留技術について検討し,前回のトレーニングの破滅的な忘れ込みを減らすことを目的とした。
学習中に古い知識と新しい知識の相互関係を調べることは、古い知識を忘れずに新しい概念を学ぶのに役立つ。
論文 参考訳(メタデータ) (2021-06-27T16:39:39Z) - PointContrast: Unsupervised Pre-training for 3D Point Cloud
Understanding [107.02479689909164]
本研究では,3次元表現学習の研究を支援することを目的とする。
教師なし事前学習が3Dシーンの大規模なソースセットに与える影響を計測する。
論文 参考訳(メタデータ) (2020-07-21T17:59:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。