論文の概要: Upsampling Autoencoder for Self-Supervised Point Cloud Learning
- arxiv url: http://arxiv.org/abs/2203.10768v1
- Date: Mon, 21 Mar 2022 07:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-23 02:19:23.698129
- Title: Upsampling Autoencoder for Self-Supervised Point Cloud Learning
- Title(参考訳): 自己教師付きポイントクラウド学習のためのアップサンプリングオートエンコーダ
- Authors: Cheng Zhang, Jian Shi, Xuan Deng, Zizhao Wu
- Abstract要約: 人間のアノテーションを使わずに、ポイントクラウド学習のための自己教師付き事前学習モデルを提案する。
アップサンプリング操作は、ポイントクラウドの高レベルセマンティック情報と低レベル幾何情報の両方を捕捉することをネットワークに促す。
我々のUAEは、形状分類、部分分割、点雲アップサンプリングタスクにおいて、従来の最先端手法よりも優れています。
- 参考スコア(独自算出の注目度): 11.19408173558718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In computer-aided design (CAD) community, the point cloud data is pervasively
applied in reverse engineering, where the point cloud analysis plays an
important role. While a large number of supervised learning methods have been
proposed to handle the unordered point clouds and demonstrated their remarkable
success, their performance and applicability are limited to the costly data
annotation. In this work, we propose a novel self-supervised pretraining model
for point cloud learning without human annotations, which relies solely on
upsampling operation to perform feature learning of point cloud in an effective
manner. The key premise of our approach is that upsampling operation encourages
the network to capture both high-level semantic information and low-level
geometric information of the point cloud, thus the downstream tasks such as
classification and segmentation will benefit from the pre-trained model.
Specifically, our method first conducts the random subsampling from the input
point cloud at a low proportion e.g., 12.5%. Then, we feed them into an
encoder-decoder architecture, where an encoder is devised to operate only on
the subsampled points, along with a upsampling decoder is adopted to
reconstruct the original point cloud based on the learned features. Finally, we
design a novel joint loss function which enforces the upsampled points to be
similar with the original point cloud and uniformly distributed on the
underlying shape surface. By adopting the pre-trained encoder weights as
initialisation of models for downstream tasks, we find that our UAE outperforms
previous state-of-the-art methods in shape classification, part segmentation
and point cloud upsampling tasks. Code will be made publicly available upon
acceptance.
- Abstract(参考訳): コンピュータ支援設計(CAD)コミュニティでは、ポイントクラウドデータがリバースエンジニアリングに広く適用され、ポイントクラウド分析が重要な役割を果たす。
無秩序な点群を扱うために多数の教師あり学習手法が提案され、その顕著な成功を示す一方で、それらの性能と適用性は高価なデータアノテーションに限られている。
本研究では,ポイントクラウドの特徴学習を効果的に行うためのアップサンプリング操作のみに頼って,人間のアノテーションを使わずに,ポイントクラウド学習のための自己教師付き事前学習モデルを提案する。
我々のアプローチのキーとなる前提は、アップサンプリング操作は、ポイントクラウドの高レベルな意味情報と低レベルな幾何学情報の両方を捕捉することをネットワークに促すため、分類やセグメンテーションといった下流タスクは、事前訓練されたモデルから恩恵を受けることである。
具体的には、まず入力点雲から12.5%の低い割合でランダムなサブサンプリングを行う。
次に,エンコーダ・デコーダアーキテクチャに入力し,アンコーダがサブサンプリングポイントのみで動作するように設計され,アップサンプリングデコーダが採用され,学習した特徴に基づいて元のポイントクラウドを再構築する。
最後に, アップサンプリングされた点を原点の雲と類似し, 基礎形状に均一に分布させる新しい結合損失関数を設計する。
学習済みエンコーダ重みを下流タスクのモデルの初期化として採用することにより,我々のuaeは,それまでの形状分類,部分分割,ポイントクラウドアップサンプリングタスクにおいて,最先端の手法を上回っていることがわかった。
コードは受理次第公開される予定だ。
関連論文リスト
- Point Cloud Novelty Detection Based on Latent Representations of a General Feature Extractor [9.11903730548763]
本稿では, 汎用クラウド特徴抽出器と一級分類器を併用した, 効率的な非教師なし3次元点雲ノベルティ検出手法を提案する。
従来の3次元座標空間の再構成誤差測定手法と比較して,形状情報を凝縮した潜在表現を利用する。
一般特徴抽出器は未知のカテゴリの形状特徴を抽出し,オートエンコーダの再学習の必要性を排除し,計算負担を軽減できることを確認した。
論文 参考訳(メタデータ) (2024-10-13T14:42:43Z) - Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - GeoMAE: Masked Geometric Target Prediction for Self-supervised Point
Cloud Pre-Training [16.825524577372473]
幾何学的特徴再構成に基づくポイントクラウド表現学習フレームワークを提案する。
我々は,3つの自己教師型学習目標を特異点雲,すなわちセントロイド予測,正規推定,曲率予測と同定する。
私たちのパイプラインは概念的にはシンプルで、まずポイントのグループをランダムにマスキングし、次にTransformerベースのポイントクラウドエンコーダという2つの大きなステップで構成されています。
論文 参考訳(メタデータ) (2023-05-15T17:14:55Z) - PointCaM: Cut-and-Mix for Open-Set Point Cloud Learning [72.07350827773442]
我々は,新しいポイントカット・アンド・ミクス機構を用いて,オープンセットのクラウド学習を解決することを提案する。
トレーニング段階では,Unknown-Point Simulatorを用いてアウト・オブ・ディストリビューションデータをシミュレートする。
Unknown-Point Estimatorモジュールは、既知のデータを識別するために、ポイントクラウドの機能コンテキストを活用することを学ぶ。
論文 参考訳(メタデータ) (2022-12-05T03:53:51Z) - SoftPool++: An Encoder-Decoder Network for Point Cloud Completion [93.54286830844134]
本稿では,ポイントクラウド完了作業のための新しい畳み込み演算子を提案する。
提案した演算子は、最大プールやボキセル化操作を一切必要としない。
提案手法は,低解像度・高解像度の形状仕上げにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-08T15:31:36Z) - Self-Supervised Arbitrary-Scale Point Clouds Upsampling via Implicit
Neural Representation [79.60988242843437]
そこで本研究では,自己監督型および倍率フレキシブルな点雲を同時にアップサンプリングする手法を提案する。
実験結果から, 自己教師あり学習に基づく手法は, 教師あり学習に基づく手法よりも, 競争力や性能が向上することが示された。
論文 参考訳(メタデータ) (2022-04-18T07:18:25Z) - Point Cloud Pre-training by Mixing and Disentangling [35.18101910728478]
Mixing and Disentangling (MD)は、ポイントクラウド事前トレーニングのための自己教師付き学習アプローチである。
我々は,エンコーダ+我々の(MD)が,スクラッチから訓練したエンコーダを著しく上回り,迅速に収束することを示す。
この自己教師型学習によるポイントクラウドの試みが、大規模ラベル付きデータへの深い学習モデル依存を減らす道を開くことを願っている。
論文 参考訳(メタデータ) (2021-09-01T15:52:18Z) - SPU-Net: Self-Supervised Point Cloud Upsampling by Coarse-to-Fine
Reconstruction with Self-Projection Optimization [52.20602782690776]
実際のスキャンされたスパースデータからトレーニング用の大規模なペアリングスパーススキャンポイントセットを得るのは高価で面倒です。
本研究では,SPU-Net と呼ばれる自己監視型点群アップサンプリングネットワークを提案する。
本研究では,合成データと実データの両方について様々な実験を行い,最先端の教師付き手法と同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-08T14:14:09Z) - Refinement of Predicted Missing Parts Enhance Point Cloud Completion [62.997667081978825]
点雲完了は、部分的な観測から3次元形状の点集合表現を用いて完全な幾何学を予測するタスクである。
従来のアプローチでは、不完全点集合によって供給されるエンコーダ・デコーダモデルにより、点雲全体を直接推定するニューラルネットワークが提案されていた。
本稿では、欠落した幾何を計算し、既知の入力と予測点クラウドを融合することに焦点を当てたエンドツーエンドニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-10-08T22:01:23Z) - Unsupervised Point Cloud Pre-Training via Occlusion Completion [18.42664414305454]
点雲に対する簡単な事前学習アプローチについて述べる。
カメラビューに隠された全てのポイントをマスクする 2. 隠されたポイントを再構築するためにエンコーダ・デコーダモデルを学ぶ 3. 下流のクラウドタスクの初期化としてエンコーダ重みを使用する。
論文 参考訳(メタデータ) (2020-10-02T16:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。