論文の概要: Implicit Autoencoder for Point Cloud Self-supervised Representation
Learning
- arxiv url: http://arxiv.org/abs/2201.00785v1
- Date: Mon, 3 Jan 2022 18:05:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 14:50:15.765712
- Title: Implicit Autoencoder for Point Cloud Self-supervised Representation
Learning
- Title(参考訳): ポイントクラウド自己教師型表現学習のためのインプシットオートエンコーダ
- Authors: Siming Yan, Zhenpei Yang, Haoxiang Li, Li Guan, Hao Kang, Gang Hua,
Qixing Huang
- Abstract要約: Implicit Autoencoder(IAE)は、ポイントクラウドデコーダを暗黙のデコーダに置き換える、シンプルだが効果的な方法である。
我々は,3Dオブジェクトと3Dシーンの両方において,自己指導型学習タスクにおけるIAEの有用性を実証した。
- 参考スコア(独自算出の注目度): 71.00417907509285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many 3D representations (e.g., point clouds) are discrete samples of the
underlying continuous 3D surface. This process inevitably introduces sampling
variations on the underlying 3D shapes. In learning 3D representation, the
variations should be disregarded while transferable knowledge of the underlying
3D shape should be captured. This becomes a grand challenge in existing
representation learning paradigms. This paper studies autoencoding on point
clouds. The standard autoencoding paradigm forces the encoder to capture such
sampling variations as the decoder has to reconstruct the original point cloud
that has sampling variations. We introduce Implicit Autoencoder(IAE), a simple
yet effective method that addresses this challenge by replacing the point cloud
decoder with an implicit decoder. The implicit decoder outputs a continuous
representation that is shared among different point cloud sampling of the same
model. Reconstructing under the implicit representation can prioritize that the
encoder discards sampling variations, introducing more space to learn useful
features. We theoretically justify this claim under a simple linear
autoencoder. Moreover, the implicit decoder offers a rich space to design
suitable implicit representations for different tasks. We demonstrate the
usefulness of IAE across various self-supervised learning tasks for both 3D
objects and 3D scenes. Experimental results show that IAE consistently
outperforms the state-of-the-art in each task.
- Abstract(参考訳): 多くの3次元表現(例えば点雲)は、下層の連続3次元曲面の離散的なサンプルである。
このプロセスは必然的に3d形状のサンプリング変動を導入する。
3d表現を学ぶとき、そのバリエーションは無視され、基礎となる3d形状に関する転送可能な知識はキャプチャされるべきである。
これは既存の表現学習パラダイムにおいて大きな課題となる。
本稿では,点雲上の自動エンコーディングについて検討する。
標準的なオートエンコーディングパラダイムは、デコーダがサンプリングのバリエーションを持つ元の点雲を再構築する必要があるため、エンコーダにそのようなサンプリングのバリエーションをキャプチャするよう強制する。
我々は、ポイントクラウドデコーダを暗黙のデコーダに置き換えることで、この問題に対処するシンプルで効果的な方法であるImplicit Autoencoder(IAE)を紹介する。
暗黙のデコーダは、同じモデルの異なる点クラウドサンプリング間で共有される連続表現を出力する。
暗黙の表現の下での再構成は、エンコーダがサンプリングのバリエーションを捨て、有用な機能を学ぶためにより多くのスペースを導入することを優先することができる。
理論上は単純な線形オートエンコーダの下でこの主張を正当化する。
さらに、暗黙のデコーダは、異なるタスクに適した暗黙の表現を設計するためのリッチな空間を提供する。
我々は,3Dオブジェクトと3Dシーンの両方において,自己指導型学習タスクにおけるIAEの有用性を示す。
実験の結果、IAEは各タスクの最先端を一貫して上回ることがわかった。
関連論文リスト
- DatasetNeRF: Efficient 3D-aware Data Factory with Generative Radiance Fields [68.94868475824575]
本稿では,無限で高品質な3Dアノテーションを3Dポイントクラウドセグメンテーションとともに生成できる新しいアプローチを提案する。
我々は3次元生成モデルに先立って強力なセマンティクスを活用してセマンティクスデコーダを訓練する。
トレーニングが完了すると、デコーダは遅延空間を効率よく一般化し、無限のデータの生成を可能にする。
論文 参考訳(メタデータ) (2023-11-18T21:58:28Z) - 3D Feature Prediction for Masked-AutoEncoder-Based Point Cloud Pretraining [45.58631796379208]
Masked Autoencoders (MAEs) は、最近ポイントクラウドのための3次元自己教師型事前トレーニングに導入されている。
本稿では,新しいアテンションベースデコーダを用いて,ポイント位置の復元を無視し,マスキングポイントの高次特徴を復元することを提案する。
我々は,3次元学習のための異なるエンコーダ構造を用いて,プリテキストタスクとデコーダ設計を検証し,様々なポイントクラウド解析タスクにおける事前学習ネットワークの利点を実証する。
論文 参考訳(メタデータ) (2023-04-14T03:25:24Z) - PointMCD: Boosting Deep Point Cloud Encoders via Multi-view Cross-modal
Distillation for 3D Shape Recognition [55.38462937452363]
本稿では,教師として事前訓練されたディープイメージエンコーダ,学生としてディープポイントエンコーダを含む多視点クロスモーダル蒸留アーキテクチャを提案する。
複数ビューの視覚的および幾何学的記述子をペアワイズにアライメントすることで、より強力なディープポイントエンコーダを、疲労や複雑なネットワーク修正を伴わずに得ることができる。
論文 参考訳(メタデータ) (2022-07-07T07:23:20Z) - SNAKE: Shape-aware Neural 3D Keypoint Field [62.91169625183118]
形状復元には点雲から3Dキーポイントを検出することが重要である。
形状再構成は3次元キーポイント検出に有効か?
本稿では,形状認識型ニューラル3Dキーポイントフィールドに短いSNAKEという,教師なしの新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2022-06-03T17:58:43Z) - Self-Supervised Point Cloud Representation Learning with Occlusion
Auto-Encoder [63.77257588569852]
本稿では,3D Occlusion Auto-Encoder(3D-OAE)を提案する。
私たちのキーとなるアイデアは、入力ポイントクラウドのローカルパッチをランダムに排除し、隠されたパッチを復元することで監督を確立することです。
従来の手法とは対照的に、我々の3D-OAEは大量のパッチを除去し、少数の可視パッチでしか予測できない。
論文 参考訳(メタデータ) (2022-03-26T14:06:29Z) - Learning 3D Dense Correspondence via Canonical Point Autoencoder [108.20735652143787]
同一カテゴリの3次元形状間の密接な対応を予測できる標準点オートエンコーダ(CPAE)を提案する。
オートエンコーダは、2つの重要な機能を実行する: (a) 任意に順序付けられた点雲を標準プリミティブに符号化し、 (b) プリミティブを元の入力インスタンス形状に復号する。
論文 参考訳(メタデータ) (2021-07-10T15:54:48Z) - PvDeConv: Point-Voxel Deconvolution for Autoencoding CAD Construction in
3D [23.87757211847093]
コンピュータ支援設計(cad)モデルの基盤となる形状を密に記述した10k点の高分解能点雲を合成することを学ぶ。
50k以上のCADモデルとその対応する3Dメッシュを含む新しい専用データセット、CC3Dを紹介します。
このデータセットは、3Dスキャン(CADモデル)のペアからサンプリングされた点雲の畳み込みオートエンコーダを学ぶために使用される。
論文 参考訳(メタデータ) (2021-01-12T14:14:13Z) - Exploring Deep 3D Spatial Encodings for Large-Scale 3D Scene
Understanding [19.134536179555102]
生の3次元点雲の空間的特徴を非方向性グラフモデルに符号化することで,CNNに基づくアプローチの限界を克服する代替手法を提案する。
提案手法は、訓練時間とモデル安定性を改善して、最先端の精度で達成し、さらなる研究の可能性を示す。
論文 参考訳(メタデータ) (2020-11-29T12:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。