論文の概要: Point-DAE: Denoising Autoencoders for Self-supervised Point Cloud
Learning
- arxiv url: http://arxiv.org/abs/2211.06841v1
- Date: Sun, 13 Nov 2022 08:02:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 16:10:35.330648
- Title: Point-DAE: Denoising Autoencoders for Self-supervised Point Cloud
Learning
- Title(参考訳): Point-DAE: 自己教師型ポイントクラウド学習のためのオートエンコーダ
- Authors: Yabin Zhang, Jiehong Lin, Ruihuang Li, Kui Jia, Lei Zhang
- Abstract要約: Masked Autoencoderは、自己教師付きポイントクラウド学習において、その効果を実証している。
本研究では,ポイントクラウド学習のためのより汎用的な自動エンコーダ(Point-DAE)について検討する。
我々はエンコーダ・デコーダモデルを学び、オリジナルの点雲を破損したバージョンから再構築する。
- 参考スコア(独自算出の注目度): 39.768077988429184
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Masked autoencoder has demonstrated its effectiveness in self-supervised
point cloud learning. Considering that masking is a kind of corruption, in this
work we explore a more general denoising autoencoder for point cloud learning
(Point-DAE) by investigating more types of corruptions beyond masking.
Specifically, we degrade the point cloud with certain corruptions as input, and
learn an encoder-decoder model to reconstruct the original point cloud from its
corrupted version. Three corruption families (i.e., density/masking, noise, and
affine transformation) and a total of fourteen corruption types are
investigated. Interestingly, the affine transformation-based Point-DAE
generally outperforms others (e.g., the popular masking corruptions),
suggesting a promising direction for self-supervised point cloud learning. More
importantly, we find a statistically significant linear relationship between
task relatedness and model performance on downstream tasks. This finding partly
demystifies the advantage of affine transformation-based Point-DAE, given that
such Point-DAE variants are closely related to the downstream classification
task. Additionally, we reveal that most Point-DAE variants unintentionally
benefit from the manually-annotated canonical poses in the pre-training
dataset. To tackle such an issue, we promote a new dataset setting by
estimating object poses automatically. The codes will be available at
\url{https://github.com/YBZh/Point-DAE.}
- Abstract(参考訳): masked autoencoderは、セルフ教師付きポイントクラウド学習の有効性を実証した。
マスキングは一種の汚職であり、この研究では、マスキング以外の多くの種類の汚職を調査することによって、ポイントクラウドラーニング(Point-DAE)のためのより一般的なオートエンコーダを探索する。
具体的には、特定の腐敗を入力としてポイントクラウドを分解し、エンコーダ・デコーダモデルを学び、元のポイントクラウドを破損したバージョンから再構築する。
3つの腐敗ファミリー(密度/マスキング、ノイズ、アフィン変換)と合計14種類の腐敗タイプを調査した。
興味深いことに、アフィン変換ベースのPoint-DAEは一般的に他のもの(例えば、一般的なマスキングの汚職など)より優れており、セルフ教師付きポイントクラウド学習の有望な方向性を示唆している。
さらに重要なことは、下流タスクにおけるタスク関連性とモデル性能の統計的に有意な線形関係があることである。
この発見は、これらのポイント-DAE変種が下流分類タスクと密接に関連していることを考えると、アフィン変換に基づくポイント-DAEの利点を部分的にデミスタットしている。
さらに、ほとんどのPoint-DAE変種は、事前トレーニングデータセットで手動で注釈付けされた標準ポーズの恩恵を受けない。
この問題に取り組むために,オブジェクトのポーズを自動的に推定することで,新しいデータセットの設定を促進する。
コードは \url{https://github.com/YBZh/Point-DAE で入手できる。
}
関連論文リスト
- Sample-adaptive Augmentation for Point Cloud Recognition Against
Real-world Corruptions [20.95456179904285]
本稿では,サンプルの構造に基づくサンプル適応変換をAdaptPointと命名する手法を提案する。
判別器は、原データ分布から逸脱する過度な腐敗の発生を防止するために用いられる。
実験の結果,ModelNet-C,ScanObjectNN-C,ShapeNet-C など,複数の汚損評価ベンチマークにおいて,最先端の結果が得られた。
論文 参考訳(メタデータ) (2023-09-19T08:46:43Z) - Toward Unsupervised 3D Point Cloud Anomaly Detection using Variational
Autoencoder [10.097126085083827]
本稿では3次元点雲に対するエンドツーエンドの教師なし異常検出フレームワークを提案する。
本稿では,3次元点群に適応した深部変分自動エンコーダに基づく非教師なし異常検出ネットワークと,特に3次元点群に対する異常スコアを提案する。
論文 参考訳(メタデータ) (2023-04-07T00:02:37Z) - SeRP: Self-Supervised Representation Learning Using Perturbed Point
Clouds [6.29475963948119]
SeRPはエンコーダ・デコーダアーキテクチャで構成されており、乱れや破損した点雲を入力として利用する。
トランスフォーマーとPointNetベースのオートエンコーダを使用しました。
論文 参考訳(メタデータ) (2022-09-13T15:22:36Z) - Masked Autoencoders in 3D Point Cloud Representation Learning [7.617783375837524]
3Dポイントクラウド表現学習におけるマスク付きオートエンコーダを提案する(略してMAE3D)。
最初はインプットポイントクラウドをパッチに分割し、その一部をマスクし、次にPatch Embedding Moduleを使って未成熟のパッチの特徴を抽出しました。
総合的な実験により、ポイントクラウドパッチからMAE3Dによって抽出された局所的特徴が下流分類タスクに有用であることが示されている。
論文 参考訳(メタデータ) (2022-07-04T16:13:27Z) - Point-M2AE: Multi-scale Masked Autoencoders for Hierarchical Point Cloud
Pre-training [56.81809311892475]
Masked Autoencoders (MAE) は、言語と2次元画像変換器の自己教師付き事前学習において大きな可能性を示している。
我々は3次元点雲の階層的自己教師型学習のための強力なマルチスケールMAE事前学習フレームワークであるPoint-M2AEを提案する。
論文 参考訳(メタデータ) (2022-05-28T11:22:53Z) - Self-Supervised Point Cloud Representation Learning with Occlusion
Auto-Encoder [63.77257588569852]
本稿では,3D Occlusion Auto-Encoder(3D-OAE)を提案する。
私たちのキーとなるアイデアは、入力ポイントクラウドのローカルパッチをランダムに排除し、隠されたパッチを復元することで監督を確立することです。
従来の手法とは対照的に、我々の3D-OAEは大量のパッチを除去し、少数の可視パッチでしか予測できない。
論文 参考訳(メタデータ) (2022-03-26T14:06:29Z) - Unsupervised Representation Learning for 3D Point Cloud Data [66.92077180228634]
我々は、教師なしのポイントクラウド学習に対して、シンプルで効果的なアプローチを提案する。
特に、原点雲の優れたコントラストバージョンを生成する非常に有用な変換を同定する。
本研究では,3次元オブジェクト分類,形状部分分割,シーン分割の3つの下流タスクについて実験を行った。
論文 参考訳(メタデータ) (2021-10-13T10:52:45Z) - PoinTr: Diverse Point Cloud Completion with Geometry-Aware Transformers [81.71904691925428]
本稿では,ポイントクラウドの完了をセット・ツー・セットの翻訳問題として再定義する手法を提案する。
我々はまた、ポイントクラウド補完のためにトランスフォーマーエンコーダデコーダアーキテクチャを採用するPoinTrと呼ばれる新しいモデルも設計している。
提案手法は,新しいベンチマークと既存ベンチマークの両方において,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T17:58:56Z) - Image Inpainting by End-to-End Cascaded Refinement with Mask Awareness [66.55719330810547]
任意の欠落領域を塗りつぶすことは、様々なマスクされた領域で有効な特徴を学ぶことは非自明だから難しい。
符号化フェーズにおける欠落領域のマルチスケール特徴を学習する新しいマスク対応インペイントソリューションを提案する。
私たちのフレームワークは、3つの公開データセットに関する広範な実験を通じて定量的および定性的に検証されます。
論文 参考訳(メタデータ) (2021-04-28T13:17:47Z) - OMNet: Learning Overlapping Mask for Partial-to-Partial Point Cloud
Registration [31.108056345511976]
OMNetは、部分から部分へのポイントクラウド登録のためのグローバル機能ベースの反復ネットワークです。
マスクを粗雑に学習し,重複しない領域を拒絶し,部分から部分への登録を同一形状の登録に変換する。
論文 参考訳(メタデータ) (2021-03-01T11:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。