論文の概要: Point-DAE: Denoising Autoencoders for Self-supervised Point Cloud
Learning
- arxiv url: http://arxiv.org/abs/2211.06841v3
- Date: Thu, 30 Nov 2023 11:18:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 20:57:09.674424
- Title: Point-DAE: Denoising Autoencoders for Self-supervised Point Cloud
Learning
- Title(参考訳): Point-DAE: 自己教師型ポイントクラウド学習のためのオートエンコーダ
- Authors: Yabin Zhang, Jiehong Lin, Ruihuang Li, Kui Jia, Lei Zhang
- Abstract要約: 我々は、より一般的なポイントクラウド学習用オートエンコーダ(Point-DAE)について、マスキング以外の多くの種類の汚職を調査して検討する。
具体的には、特定の破損を入力としてポイントクラウドを分解し、エンコーダ・デコーダモデルを学び、元のポイントクラウドを破損したバージョンから再構築する。
- 参考スコア(独自算出の注目度): 58.48149060125912
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Masked autoencoder has demonstrated its effectiveness in self-supervised
point cloud learning. Considering that masking is a kind of corruption, in this
work we explore a more general denoising autoencoder for point cloud learning
(Point-DAE) by investigating more types of corruptions beyond masking.
Specifically, we degrade the point cloud with certain corruptions as input, and
learn an encoder-decoder model to reconstruct the original point cloud from its
corrupted version. Three corruption families (\ie, density/masking, noise, and
affine transformation) and a total of fourteen corruption types are
investigated with traditional non-Transformer encoders. Besides the popular
masking corruption, we identify another effective corruption family, \ie,
affine transformation. The affine transformation disturbs all points globally,
which is complementary to the masking corruption where some local regions are
dropped. We also validate the effectiveness of affine transformation corruption
with the Transformer backbones, where we decompose the reconstruction of the
complete point cloud into the reconstructions of detailed local patches and
rough global shape, alleviating the position leakage problem in the
reconstruction. Extensive experiments on tasks of object classification,
few-shot learning, robustness testing, part segmentation, and 3D object
detection validate the effectiveness of the proposed method. The codes are
available at \url{https://github.com/YBZh/Point-DAE}.
- Abstract(参考訳): masked autoencoderは、セルフ教師付きポイントクラウド学習の有効性を実証した。
マスキングは一種の汚職であり、この研究では、マスキング以外の多くの種類の汚職を調査することによって、ポイントクラウドラーニング(Point-DAE)のためのより一般的なオートエンコーダを探索する。
具体的には、特定の腐敗を入力としてポイントクラウドを分解し、エンコーダ・デコーダモデルを学び、元のポイントクラウドを破損したバージョンから再構築する。
従来の非変換エンコーダを用いて,3つの腐敗ファミリー (\ie, density/masking, noise, and affine transformation) と14種類の腐敗タイプについて検討した。
一般的なマスキングの汚職に加えて、別の効果的な汚職家族 \ie, affine transformation も特定する。
アフィン変換は世界中の全ての点を阻害し、一部地域が失われる仮面的腐敗を補完する。
また, 変圧器バックボーンを用いたアフィン変換破壊の有効性を検証し, 完全点雲の再構成を, 詳細な局所パッチおよび粗大形状の再構成に分解し, 再構成における位置漏洩問題を軽減する。
提案手法の有効性を検証するため,オブジェクト分類,マイノリティ学習,ロバストネステスト,部分分割,3次元物体検出などのタスクに関する広範な実験を行った。
コードは \url{https://github.com/ybzh/point-dae} で入手できる。
関連論文リスト
- Sample-adaptive Augmentation for Point Cloud Recognition Against
Real-world Corruptions [20.95456179904285]
本稿では,サンプルの構造に基づくサンプル適応変換をAdaptPointと命名する手法を提案する。
判別器は、原データ分布から逸脱する過度な腐敗の発生を防止するために用いられる。
実験の結果,ModelNet-C,ScanObjectNN-C,ShapeNet-C など,複数の汚損評価ベンチマークにおいて,最先端の結果が得られた。
論文 参考訳(メタデータ) (2023-09-19T08:46:43Z) - Toward Unsupervised 3D Point Cloud Anomaly Detection using Variational
Autoencoder [10.097126085083827]
本稿では3次元点雲に対するエンドツーエンドの教師なし異常検出フレームワークを提案する。
本稿では,3次元点群に適応した深部変分自動エンコーダに基づく非教師なし異常検出ネットワークと,特に3次元点群に対する異常スコアを提案する。
論文 参考訳(メタデータ) (2023-04-07T00:02:37Z) - SeRP: Self-Supervised Representation Learning Using Perturbed Point
Clouds [6.29475963948119]
SeRPはエンコーダ・デコーダアーキテクチャで構成されており、乱れや破損した点雲を入力として利用する。
トランスフォーマーとPointNetベースのオートエンコーダを使用しました。
論文 参考訳(メタデータ) (2022-09-13T15:22:36Z) - Masked Autoencoders in 3D Point Cloud Representation Learning [7.617783375837524]
3Dポイントクラウド表現学習におけるマスク付きオートエンコーダを提案する(略してMAE3D)。
最初はインプットポイントクラウドをパッチに分割し、その一部をマスクし、次にPatch Embedding Moduleを使って未成熟のパッチの特徴を抽出しました。
総合的な実験により、ポイントクラウドパッチからMAE3Dによって抽出された局所的特徴が下流分類タスクに有用であることが示されている。
論文 参考訳(メタデータ) (2022-07-04T16:13:27Z) - Point-M2AE: Multi-scale Masked Autoencoders for Hierarchical Point Cloud
Pre-training [56.81809311892475]
Masked Autoencoders (MAE) は、言語と2次元画像変換器の自己教師付き事前学習において大きな可能性を示している。
我々は3次元点雲の階層的自己教師型学習のための強力なマルチスケールMAE事前学習フレームワークであるPoint-M2AEを提案する。
論文 参考訳(メタデータ) (2022-05-28T11:22:53Z) - Self-Supervised Point Cloud Representation Learning with Occlusion
Auto-Encoder [63.77257588569852]
本稿では,3D Occlusion Auto-Encoder(3D-OAE)を提案する。
私たちのキーとなるアイデアは、入力ポイントクラウドのローカルパッチをランダムに排除し、隠されたパッチを復元することで監督を確立することです。
従来の手法とは対照的に、我々の3D-OAEは大量のパッチを除去し、少数の可視パッチでしか予測できない。
論文 参考訳(メタデータ) (2022-03-26T14:06:29Z) - Unsupervised Representation Learning for 3D Point Cloud Data [66.92077180228634]
我々は、教師なしのポイントクラウド学習に対して、シンプルで効果的なアプローチを提案する。
特に、原点雲の優れたコントラストバージョンを生成する非常に有用な変換を同定する。
本研究では,3次元オブジェクト分類,形状部分分割,シーン分割の3つの下流タスクについて実験を行った。
論文 参考訳(メタデータ) (2021-10-13T10:52:45Z) - PoinTr: Diverse Point Cloud Completion with Geometry-Aware Transformers [81.71904691925428]
本稿では,ポイントクラウドの完了をセット・ツー・セットの翻訳問題として再定義する手法を提案する。
我々はまた、ポイントクラウド補完のためにトランスフォーマーエンコーダデコーダアーキテクチャを採用するPoinTrと呼ばれる新しいモデルも設計している。
提案手法は,新しいベンチマークと既存ベンチマークの両方において,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T17:58:56Z) - Image Inpainting by End-to-End Cascaded Refinement with Mask Awareness [66.55719330810547]
任意の欠落領域を塗りつぶすことは、様々なマスクされた領域で有効な特徴を学ぶことは非自明だから難しい。
符号化フェーズにおける欠落領域のマルチスケール特徴を学習する新しいマスク対応インペイントソリューションを提案する。
私たちのフレームワークは、3つの公開データセットに関する広範な実験を通じて定量的および定性的に検証されます。
論文 参考訳(メタデータ) (2021-04-28T13:17:47Z) - OMNet: Learning Overlapping Mask for Partial-to-Partial Point Cloud
Registration [31.108056345511976]
OMNetは、部分から部分へのポイントクラウド登録のためのグローバル機能ベースの反復ネットワークです。
マスクを粗雑に学習し,重複しない領域を拒絶し,部分から部分への登録を同一形状の登録に変換する。
論文 参考訳(メタデータ) (2021-03-01T11:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。