論文の概要: Point-GCC: Universal Self-supervised 3D Scene Pre-training via
Geometry-Color Contrast
- arxiv url: http://arxiv.org/abs/2305.19623v2
- Date: Thu, 1 Jun 2023 09:06:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 11:00:38.867421
- Title: Point-GCC: Universal Self-supervised 3D Scene Pre-training via
Geometry-Color Contrast
- Title(参考訳): 点GCC:幾何色コントラストによる普遍的自己監督型3次元事前学習
- Authors: Guofan Fan, Zekun Qi, Wenkai Shi, Kaisheng Ma
- Abstract要約: 点雲によって提供される幾何学と色情報は、3Dシーンの理解に不可欠である。
我々はGeometry-Color Contrast (Point-GCC) を用いたユニバーサル3次元シーン事前学習フレームワークを提案する。
ポイントGCCは、シムズネットワークを用いて幾何学と色情報を整列する。
- 参考スコア(独自算出の注目度): 9.14535402695962
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Geometry and color information provided by the point clouds are both crucial
for 3D scene understanding. Two pieces of information characterize the
different aspects of point clouds, but existing methods lack an elaborate
design for the discrimination and relevance. Hence we explore a 3D
self-supervised paradigm that can better utilize the relations of point cloud
information. Specifically, we propose a universal 3D scene pre-training
framework via Geometry-Color Contrast (Point-GCC), which aligns geometry and
color information using a Siamese network. To take care of actual application
tasks, we design (i) hierarchical supervision with point-level contrast and
reconstruct and object-level contrast based on the novel deep clustering module
to close the gap between pre-training and downstream tasks; (ii)
architecture-agnostic backbone to adapt for various downstream models.
Benefiting from the object-level representation associated with downstream
tasks, Point-GCC can directly evaluate model performance and the result
demonstrates the effectiveness of our methods. Transfer learning results on a
wide range of tasks also show consistent improvements across all datasets.
e.g., new state-of-the-art object detection results on SUN RGB-D and S3DIS
datasets. Codes will be released at https://github.com/Asterisci/Point-GCC.
- Abstract(参考訳): 点雲によって提供される幾何学と色情報はどちらも3Dシーン理解に不可欠である。
2つの情報は点雲の異なる側面を特徴づけるが、既存の手法には識別と関連性に関する詳細な設計が欠けている。
そこで我々は,ポイントクラウド情報の関係をよりよく活用できる3次元自己監督パラダイムを探求する。
具体的には,ジオメトリ・カラー・コントラスト(Point-GCC)を用いた3次元シーン事前学習フレームワークを提案する。
実際のアプリケーションタスクに対処するために、我々は設計する
一 事前学習と下流作業のギャップを埋めるために、新しい深層集成モジュールに基づく点レベルのコントラスト及び再構成及びオブジェクトレベルのコントラストを有する階層的監督
(ii)様々な下流モデルに対応するアーキテクチャ非依存のバックボーン。
ダウンストリームタスクに関連するオブジェクトレベルの表現から,Point-GCCはモデルの性能を直接評価し,本手法の有効性を示す。
幅広いタスクにおける転送学習の結果は、すべてのデータセットにまたがって一貫した改善を示す。
例えば、SUN RGB-DとS3DISデータセット上の新しい最先端のオブジェクト検出結果。
コードはhttps://github.com/Asterisci/Point-GCCでリリースされる。
関連論文リスト
- Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - HVDistill: Transferring Knowledge from Images to Point Clouds via Unsupervised Hybrid-View Distillation [106.09886920774002]
本稿では,HVDistillと呼ばれるハイブリッドビューに基づく知識蒸留フレームワークを提案する。
提案手法は,スクラッチからトレーニングしたベースラインに対して一貫した改善を実現し,既存のスキームを大幅に上回っている。
論文 参考訳(メタデータ) (2024-03-18T14:18:08Z) - Intrinsic Image Decomposition Using Point Cloud Representation [13.771632868567277]
本稿では3次元クラウドデータを利用してアルベドとシェーディングマップを同時に推定するPoint Intrinsic Net(PoInt-Net)を紹介する。
PoInt-Netは効率的で、任意のサイズのポイントクラウドで一貫したパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-07-20T14:51:28Z) - CLR-GAM: Contrastive Point Cloud Learning with Guided Augmentation and
Feature Mapping [12.679625717350113]
本稿では、効率的な動的探索戦略のためのガイド拡張(GA)を備えた対照的な学習ベースのフレームワークであるCLR-GAMを提案する。
提案手法がシミュレーションおよび実世界の3Dポイントクラウドデータセット上で最先端のパフォーマンスを実現することを実証的に実証した。
論文 参考訳(メタデータ) (2023-02-28T04:38:52Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - MetaSets: Meta-Learning on Point Sets for Generalizable Representations [100.5981809166658]
本稿では,3次元領域一般化(DDG)の新たな課題について検討し,学習過程においてそれらにアクセスすることなく,他の目に見えない点雲の領域にモデルを一般化することを目的とする。
本稿ではメタセットを用いてこの問題に対処することを提案する。メタ学習は、慎重に設計された変換された点集合上の分類タスク群からポイントクラウド表現を抽出する。
実験結果から,MetaSetsは既存の3次元深層学習手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-04-15T03:24:39Z) - CrossPoint: Self-Supervised Cross-Modal Contrastive Learning for 3D
Point Cloud Understanding [2.8661021832561757]
CrossPointは、転送可能な3Dポイントクラウド表現を学習するための、単純なクロスモーダルコントラスト学習アプローチである。
提案手法は,従来の教師なし学習手法よりも,3次元オブジェクト分類やセグメンテーションなど,さまざまな下流タスクにおいて優れていた。
論文 参考訳(メタデータ) (2022-03-01T18:59:01Z) - Point Discriminative Learning for Unsupervised Representation Learning
on 3D Point Clouds [54.31515001741987]
3次元点雲上での教師なし表現学習のための点識別学習法を提案する。
我々は、中間レベルとグローバルレベルの特徴に新しい点識別損失を課すことにより、これを達成した。
提案手法は強力な表現を学習し,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2021-08-04T15:11:48Z) - PIG-Net: Inception based Deep Learning Architecture for 3D Point Cloud
Segmentation [0.9137554315375922]
そこで我々はPIG-Netと呼ばれるインセプションに基づくディープネットワークアーキテクチャを提案し,点雲の局所的および大域的幾何学的詳細を効果的に特徴付ける。
我々は2つの最先端データセット上でPIG-Netアーキテクチャの徹底的な実験的解析を行う。
論文 参考訳(メタデータ) (2021-01-28T13:27:55Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z) - Weakly Supervised Semantic Segmentation in 3D Graph-Structured Point
Clouds of Wild Scenes [36.07733308424772]
3Dセグメンテーションラベルの欠如は、効率的な点雲セグメンテーションの主な障害の1つである。
本稿では,2D のみを監督する点群における大規模セマンティックシーンセグメンテーションのための,新しいディープグラフ畳み込みネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-26T23:02:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。