論文の概要: PointContrast: Unsupervised Pre-training for 3D Point Cloud
Understanding
- arxiv url: http://arxiv.org/abs/2007.10985v3
- Date: Sat, 21 Nov 2020 00:42:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 05:16:35.604601
- Title: PointContrast: Unsupervised Pre-training for 3D Point Cloud
Understanding
- Title(参考訳): PointContrast: 3Dポイントクラウド理解のための教師なし事前トレーニング
- Authors: Saining Xie, Jiatao Gu, Demi Guo, Charles R. Qi, Leonidas J. Guibas,
Or Litany
- Abstract要約: 本研究では,3次元表現学習の研究を支援することを目的とする。
教師なし事前学習が3Dシーンの大規模なソースセットに与える影響を計測する。
- 参考スコア(独自算出の注目度): 107.02479689909164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Arguably one of the top success stories of deep learning is transfer
learning. The finding that pre-training a network on a rich source set (eg.,
ImageNet) can help boost performance once fine-tuned on a usually much smaller
target set, has been instrumental to many applications in language and vision.
Yet, very little is known about its usefulness in 3D point cloud understanding.
We see this as an opportunity considering the effort required for annotating
data in 3D. In this work, we aim at facilitating research on 3D representation
learning. Different from previous works, we focus on high-level scene
understanding tasks. To this end, we select a suite of diverse datasets and
tasks to measure the effect of unsupervised pre-training on a large source set
of 3D scenes. Our findings are extremely encouraging: using a unified triplet
of architecture, source dataset, and contrastive loss for pre-training, we
achieve improvement over recent best results in segmentation and detection
across 6 different benchmarks for indoor and outdoor, real and synthetic
datasets -- demonstrating that the learned representation can generalize across
domains. Furthermore, the improvement was similar to supervised pre-training,
suggesting that future efforts should favor scaling data collection over more
detailed annotation. We hope these findings will encourage more research on
unsupervised pretext task design for 3D deep learning.
- Abstract(参考訳): 深層学習でもっとも成功したのは、転校学習だろう。
リッチなソースセット(例えばImageNet)でネットワークを事前トレーニングすることは、通常より小さなターゲットセットで微調整された場合、パフォーマンスを向上させるのに役立ち、言語やビジョンの多くのアプリケーションに役立っている。
しかし、3Dポイントのクラウド理解における有用性についてはほとんど分かっていない。
これを3Dでデータに注釈をつけるのに必要な労力を考える機会と捉えています。
本研究では,3次元表現学習研究の促進を目指す。
従来の作業とは違って,高レベルのシーン理解タスクに重点を置いている。
この目的のために,3dシーンの大きなソースセットに対する教師なし事前トレーニングの効果を測定するために,多様なデータセットとタスクのスイートを選択する。
アーキテクチャの統一三重項、ソースデータセット、および事前トレーニングのためのコントラスト損失を使用することで、屋内および屋外、実および合成データセットの6つのベンチマークにおいて、セグメンテーションと検出における最近の最良の結果よりも改善が得られます。
さらに、改善は教師付き事前トレーニングと似ており、将来の取り組みはより詳細なアノテーションよりもデータ収集をスケールすることを推奨している。
これらの発見が、3D深層学習のための教師なしプレテキスト・タスク・デザインのさらなる研究を促すことを願っている。
関連論文リスト
- Bayesian Self-Training for Semi-Supervised 3D Segmentation [59.544558398992386]
3Dセグメンテーションはコンピュータビジョンの中核的な問題である。
完全に教師されたトレーニングを採用するために、3Dポイントクラウドを密にラベル付けすることは、労働集約的で高価です。
半教師付きトレーニングは、ラベル付きデータの小さなセットのみを付与し、より大きなラベル付きデータセットを伴って、より実用的な代替手段を提供する。
論文 参考訳(メタデータ) (2024-09-12T14:54:31Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Leveraging Large-Scale Pretrained Vision Foundation Models for
Label-Efficient 3D Point Cloud Segmentation [67.07112533415116]
本稿では3Dポイントクラウドセグメンテーションタスクに様々な基礎モデルを適用する新しいフレームワークを提案する。
我々のアプローチでは、異なる大きな視覚モデルを用いて2次元セマンティックマスクの初期予測を行う。
本研究では,ロバストな3Dセマンティックな擬似ラベルを生成するために,投票による全ての結果を効果的に組み合わせたセマンティックなラベル融合戦略を提案する。
論文 参考訳(メタデータ) (2023-11-03T15:41:15Z) - SPOT: Scalable 3D Pre-training via Occupancy Prediction for Learning Transferable 3D Representations [76.45009891152178]
トレーニング-ファインタニングアプローチは、さまざまな下流データセットとタスクをまたいだトレーニング済みのバックボーンを微調整することで、ラベル付けの負担を軽減することができる。
本稿では, 一般表現学習が, 占領予測のタスクを通じて達成できることを, 初めて示す。
本研究は,LiDAR 点の理解を促進するとともに,LiDAR の事前訓練における今後の進歩の道を開くことを目的とする。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - Self-Supervised Learning with Multi-View Rendering for 3D Point Cloud
Analysis [33.31864436614945]
本稿では,3次元点雲モデルのための新しい事前学習手法を提案する。
我々の事前訓練は、局所的なピクセル/ポイントレベルの対応損失と、大域的な画像/ポイントの雲のレベル損失によって自己管理される。
これらの改善されたモデルは、さまざまなデータセットや下流タスクにおける既存の最先端メソッドよりも優れています。
論文 参考訳(メタデータ) (2022-10-28T05:23:03Z) - A Closer Look at Invariances in Self-supervised Pre-training for 3D
Vision [0.0]
3Dビジョンのための自己監督型事前訓練は近年研究の関心が高まっている。
本稿では,様々な事前学習手法を検証可能な統合フレームワークを提案する。
コントラスト学習を用いた3次元エンコーダと深度マップエンコーダを併用した簡易かつ効果的な事前学習法を提案する。
論文 参考訳(メタデータ) (2022-07-11T16:44:15Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - Self-Supervised Pretraining of 3D Features on any Point-Cloud [40.26575888582241]
3D登録なしで任意の3Dデータを扱うことができる簡単な自己監督関連方法を紹介します。
オブジェクト検出、セマンティックセグメンテーション、オブジェクト分類の9つのベンチマークでモデルを評価し、最新の結果を達成し、教師付きプリトレーニングを上回ります。
論文 参考訳(メタデータ) (2021-01-07T18:55:21Z) - Deep Learning for 3D Point Cloud Understanding: A Survey [16.35767262996978]
自律運転やロボティクスといった実用アプリケーションの開発は、3Dポイントのクラウド理解に注意を向けている。
ディープラーニングは、画像ベースのタスクにおいて顕著な成功を収めていますが、大規模で非構造的でノイズの多い3Dポイントを処理する際に、ディープニューラルネットワークが直面する多くのユニークな課題があります。
本稿では,この領域における最近の顕著な研究成果を,いくつかの方向から要約する。
論文 参考訳(メタデータ) (2020-09-18T16:34:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。