論文の概要: Unsupervised Point Cloud Registration via Salient Points Analysis (SPA)
- arxiv url: http://arxiv.org/abs/2009.01293v1
- Date: Wed, 2 Sep 2020 18:40:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 19:38:40.458065
- Title: Unsupervised Point Cloud Registration via Salient Points Analysis (SPA)
- Title(参考訳): Salient Points Analysis (SPA)による無監督ポイントクラウド登録
- Authors: Pranav Kadam, Min Zhang, Shan Liu, C.-C. Jay Kuo
- Abstract要約: 本研究では,SPA (Salient Point Analysis) と呼ばれる非教師付きポイントクラウド登録手法を提案する。
まず、ポイントホップ++法を点点に当てはめ、点の局所的な表面特性に基づいて2点の正解点を見つけ、対応する正解点と整合して登録を行う。
SPA法の有効性は,ModelNet-40データセットから,見かけや見えないクラスやノイズの多い点群に対する実験によって実証される。
- 参考スコア(独自算出の注目度): 57.62713515497585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An unsupervised point cloud registration method, called salient points
analysis (SPA), is proposed in this work. The proposed SPA method can register
two point clouds effectively using only a small subset of salient points. It
first applies the PointHop++ method to point clouds, finds corresponding
salient points in two point clouds based on the local surface characteristics
of points and performs registration by matching the corresponding salient
points. The SPA method offers several advantages over the recent deep learning
based solutions for registration. Deep learning methods such as PointNetLK and
DCP train end-to-end networks and rely on full supervision (namely, ground
truth transformation matrix and class label). In contrast, the SPA is
completely unsupervised. Furthermore, SPA's training time and model size are
much less. The effectiveness of the SPA method is demonstrated by experiments
on seen and unseen classes and noisy point clouds from the ModelNet-40 dataset.
- Abstract(参考訳): 本研究では,SPA (Salient Point Analysis) と呼ばれる非教師付きポイントクラウド登録手法を提案する。
提案するspa法では,salient pointの小さなサブセットのみを使用して,2つのポイントクラウドを効果的に登録できる。
まず、ポイントホップ++法を点点に当てはめ、点の局所的な表面特性に基づいて2点の正解点を見つけ、対応する正解点と整合して登録を行う。
SPA法は近年のディープラーニングベースの登録ソリューションよりもいくつかの利点がある。
pointnetlkやdcpといったディープラーニングメソッドはエンドツーエンドネットワークをトレーニングし、完全な監視(すなわち、基底真理変換行列とクラスラベル)に依存する。
対照的に、SPAは完全に監督されていない。
さらに、SPAのトレーニング時間とモデルサイズもはるかに小さくなっている。
また,spa法の有効性を,modelnet-40データセットの既往クラスおよび未発見クラスおよびノイズ点雲実験により実証した。
関連論文リスト
- Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - Point2Point : A Framework for Efficient Deep Learning on Hilbert sorted
Point Clouds with applications in Spatio-Temporal Occupancy Prediction [0.0]
ヒルベルト空間充填曲線によって誘導される局所性保存1次元秩序として点雲を表現する新しい手法を提案する。
また、Hilbert分類のポイントクラウドで効果的に学習できるニューラルネットワークであるPoint2Pointを紹介します。
論文 参考訳(メタデータ) (2023-06-28T15:30:08Z) - FreePoint: Unsupervised Point Cloud Instance Segmentation [72.64540130803687]
点クラウド上の教師なしクラス非依存のインスタンスセグメンテーションを探索するためのFreePointを提案する。
我々は、座標、色、そして自己監督の深い特徴を組み合わせることで、点の特徴を表現する。
ポイント機能に基づいて、ポイントクラウドを擬似ラベルとして粗いインスタンスマスクに分割し、ポイントクラウドインスタンスセグメンテーションモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-05-11T16:56:26Z) - PointCLM: A Contrastive Learning-based Framework for Multi-instance
Point Cloud Registration [4.969636478156443]
PointCLMは、ミュートリインスタンスポイントクラウド登録のための対照的な学習ベースのフレームワークである。
提案手法は, 合成データと実データの両方において, 最先端の手法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-09-01T04:30:05Z) - PCRP: Unsupervised Point Cloud Object Retrieval and Pose Estimation [50.3020332934185]
そこで本研究では,PCRPと呼ばれる,教師なしのクラウドオブジェクトの検索とポーズ推定手法を提案する。
ModelNet40データセットの実験は、従来の学習ベースの手法と比較して、PCRPの優れた性能を示している。
論文 参考訳(メタデータ) (2022-02-16T03:37:43Z) - GPCO: An Unsupervised Green Point Cloud Odometry Method [64.86292006892093]
軽量な点状クラウド・オドメトリー法を提案し, GPCO法と名付けた。
GPCOは、連続点雲スキャンの特徴と一致することによって物体の動きを予測する教師なし学習法である。
GPCOは、モデルサイズが大幅に小さく、トレーニング時間も少ないのに対して、ディープラーニング手法のベンチマークを精度で上回ることが観察された。
論文 参考訳(メタデータ) (2021-12-08T00:24:03Z) - DeepBBS: Deep Best Buddies for Point Cloud Registration [55.12101890792121]
DeepBBSは、トレーニング中のポイント間の最良の相反する距離を考慮に入れた表現を学ぶための新しい方法である。
実験の結果,従来の手法と比較して性能が向上した。
論文 参考訳(メタデータ) (2021-10-06T19:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。