論文の概要: Towards More Diverse and Challenging Pre-training for Point Cloud Learning: Self-Supervised Cross Reconstruction with Decoupled Views
- arxiv url: http://arxiv.org/abs/2509.01250v1
- Date: Mon, 01 Sep 2025 08:42:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.602538
- Title: Towards More Diverse and Challenging Pre-training for Point Cloud Learning: Self-Supervised Cross Reconstruction with Decoupled Views
- Title(参考訳): ポイントクラウド学習のための多変量学習とカオス事前学習に向けて:分離された視点による自己監督型クロスコンストラクション
- Authors: Xiangdong Zhang, Shaofeng Zhang, Junchi Yan,
- Abstract要約: 本稿では,まず2つの分離点雲/ビューを生成し,一方を他方から再構成する相互再構成生成パラダイムであるPoint-PQAEを提案する。
クロスコンストラクションは, 自己再構成と比較して, 事前学習の難易度を著しく高め, 3次元自己教師型学習において従来の単一モーダル自己再構成法を超越することができる。
- 参考スコア(独自算出の注目度): 58.45662356692379
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point cloud learning, especially in a self-supervised way without manual labels, has gained growing attention in both vision and learning communities due to its potential utility in a wide range of applications. Most existing generative approaches for point cloud self-supervised learning focus on recovering masked points from visible ones within a single view. Recognizing that a two-view pre-training paradigm inherently introduces greater diversity and variance, it may thus enable more challenging and informative pre-training. Inspired by this, we explore the potential of two-view learning in this domain. In this paper, we propose Point-PQAE, a cross-reconstruction generative paradigm that first generates two decoupled point clouds/views and then reconstructs one from the other. To achieve this goal, we develop a crop mechanism for point cloud view generation for the first time and further propose a novel positional encoding to represent the 3D relative position between the two decoupled views. The cross-reconstruction significantly increases the difficulty of pre-training compared to self-reconstruction, which enables our method to surpass previous single-modal self-reconstruction methods in 3D self-supervised learning. Specifically, it outperforms the self-reconstruction baseline (Point-MAE) by 6.5%, 7.0%, and 6.7% in three variants of ScanObjectNN with the Mlp-Linear evaluation protocol. The code is available at https://github.com/aHapBean/Point-PQAE.
- Abstract(参考訳): ポイントクラウドラーニング、特に手動ラベルなしで自己管理的な方法では、広範囲のアプリケーションで潜在的に有用であることから、ビジョンと学習コミュニティの両方で注目を集めている。
ポイントクラウドの自己教師型学習のための既存の生成的アプローチは、単一のビュー内で見えるものからマスクされたポイントを回復することに焦点を当てている。
2視点事前学習のパラダイムが本質的により多様性と分散をもたらすことを認識すれば、より困難で情報的な事前学習が可能になるかもしれない。
そこで我々は,この領域における2視点学習の可能性を探る。
本稿では,2つの分離点雲/ビューを最初に生成し,一方を他方から再構成するクロスコンストラクション生成パラダイムであるPoint-PQAEを提案する。
この目的を達成するために、初めて点雲ビュー生成のための収穫機構を開発し、さらに2つの分離されたビュー間の3次元相対的な位置を表す新しい位置エンコーディングを提案する。
クロスコンストラクションは, 自己再構成と比較して, 事前学習の難易度を著しく高め, 3次元自己教師型学習において従来の単一モーダル自己再構成法を超越することができる。
具体的には、Mlp-Linear評価プロトコルによる3種類のScanObjectNNにおいて、自己再構成ベースライン(Point-MAE)を6.5%、7.0%、および6.7%で上回る。
コードはhttps://github.com/aHapBean/Point-PQAEで入手できる。
関連論文リスト
- HVDistill: Transferring Knowledge from Images to Point Clouds via Unsupervised Hybrid-View Distillation [106.09886920774002]
本稿では,HVDistillと呼ばれるハイブリッドビューに基づく知識蒸留フレームワークを提案する。
提案手法は,スクラッチからトレーニングしたベースラインに対して一貫した改善を実現し,既存のスキームを大幅に上回っている。
論文 参考訳(メタデータ) (2024-03-18T14:18:08Z) - Take-A-Photo: 3D-to-2D Generative Pre-training of Point Cloud Models [97.58685709663287]
生成事前学習は、2次元視覚における基本モデルの性能を高めることができる。
3Dビジョンでは、トランスフォーマーベースのバックボーンの過度な信頼性と、点雲の秩序のない性質により、生成前のトレーニングのさらなる発展が制限されている。
本稿では,任意の点クラウドモデルに適用可能な3D-to-2D生成事前学習法を提案する。
論文 参考訳(メタデータ) (2023-07-27T16:07:03Z) - GeoMAE: Masked Geometric Target Prediction for Self-supervised Point
Cloud Pre-Training [16.825524577372473]
幾何学的特徴再構成に基づくポイントクラウド表現学習フレームワークを提案する。
我々は,3つの自己教師型学習目標を特異点雲,すなわちセントロイド予測,正規推定,曲率予測と同定する。
私たちのパイプラインは概念的にはシンプルで、まずポイントのグループをランダムにマスキングし、次にTransformerベースのポイントクラウドエンコーダという2つの大きなステップで構成されています。
論文 参考訳(メタデータ) (2023-05-15T17:14:55Z) - PointVST: Self-Supervised Pre-training for 3D Point Clouds via
View-Specific Point-to-Image Translation [64.858505571083]
本稿では,翻訳型事前学習フレームワークであるPointVSTを提案する。
3Dポイントクラウドからそれに対応する多様な2Dレンダリング画像へのクロスモーダル変換という,新たな教師付きプレテキストタスクによって駆動される。
論文 参考訳(メタデータ) (2022-12-29T07:03:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。