論文の概要: SGNet: Salient Geometric Network for Point Cloud Registration
- arxiv url: http://arxiv.org/abs/2309.06207v4
- Date: Sat, 17 Aug 2024 13:28:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 04:16:54.741039
- Title: SGNet: Salient Geometric Network for Point Cloud Registration
- Title(参考訳): SGNet: ポイントクラウド登録のための有能な幾何学的ネットワーク
- Authors: Qianliang Wu, Yaqing Ding, Lei Luo, Haobo Jiang, Shuo Gu, Chuanwei Zhou, Jin Xie, Jian Yang,
- Abstract要約: ポイントクラウド登録(PCR)はコンピュータビジョンにおいて重要かつ困難なタスクである。
従来の手法では,パッチブロック間の類似性により不明瞭なマッチングが問題視されていた。
いくつかの新しい手法を含む新しい枠組みを提案する。
- 参考スコア(独自算出の注目度): 35.49985932039906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point Cloud Registration (PCR) is a critical and challenging task in computer vision. One of the primary difficulties in PCR is identifying salient and meaningful points that exhibit consistent semantic and geometric properties across different scans. Previous methods have encountered challenges with ambiguous matching due to the similarity among patch blocks throughout the entire point cloud and the lack of consideration for efficient global geometric consistency. To address these issues, we propose a new framework that includes several novel techniques. Firstly, we introduce a semantic-aware geometric encoder that combines object-level and patch-level semantic information. This encoder significantly improves registration recall by reducing ambiguity in patch-level superpoint matching. Additionally, we incorporate a prior knowledge approach that utilizes an intrinsic shape signature to identify salient points. This enables us to extract the most salient super points and meaningful dense points in the scene. Secondly, we introduce an innovative transformer that encodes High-Order (HO) geometric features. These features are crucial for identifying salient points within initial overlap regions while considering global high-order geometric consistency. To optimize this high-order transformer further, we introduce an anchor node selection strategy. By encoding inter-frame triangle or polyhedron consistency features based on these anchor nodes, we can effectively learn high-order geometric features of salient super points. These high-order features are then propagated to dense points and utilized by a Sinkhorn matching module to identify key correspondences for successful registration. In our experiments conducted on well-known datasets such as 3DMatch/3DLoMatch and KITTI, our approach has shown promising results, highlighting the effectiveness of our novel method.
- Abstract(参考訳): ポイントクラウド登録(PCR)はコンピュータビジョンにおいて重要かつ困難なタスクである。
PCRの最大の難しさの1つは、様々なスキャンで一貫した意味的および幾何学的性質を示す、健全で有意義な点を特定することである。
従来の手法では、点群全体のパッチブロック間の類似性や、効率的なグローバルな幾何整合性に対する考慮の欠如が原因で、不明瞭なマッチングの問題に遭遇した。
これらの課題に対処するため、我々はいくつかの新しい手法を含む新しい枠組みを提案する。
まず,オブジェクトレベルとパッチレベルのセマンティック情報を組み合わせた意味認識型幾何エンコーダを提案する。
このエンコーダは、パッチレベルのスーパーポイントマッチングにおけるあいまいさを低減することにより、登録リコールを大幅に改善する。
さらに本研究では,本質的な形状のシグネチャを用いて有能な点を同定する事前知識手法を取り入れた。
これにより、シーン内で最も有意義なスーパーポイントと有意義な密度ポイントを抽出できる。
次に,高次幾何学的特徴を符号化する革新的な変換器を提案する。
これらの特徴は、大域的な高次幾何整合性を考慮して、初期重なり合う領域内の有意な点を特定するために重要である。
この高階変圧器をさらに最適化するために、アンカーノード選択戦略を導入する。
これらのアンカーノードに基づいてフレーム間三角形やポリヘドロン整合性を符号化することにより、有意なスーパーポイントの高次幾何学的特徴を効果的に学習することができる。
これらの高次特徴は、密接な点に伝播し、シンクホーンマッチングモジュールによって、キー対応を識別して、登録を成功させる。
3DMatch/3DLoMatchやKITTIといったよく知られたデータセットを用いて実験を行った結果,提案手法の有効性が示された。
関連論文リスト
- Mesh Denoising Transformer [104.5404564075393]
Mesh Denoisingは、入力メッシュからノイズを取り除き、特徴構造を保存することを目的としている。
SurfaceFormerはTransformerベースのメッシュDenoisingフレームワークのパイオニアだ。
局所曲面記述子(Local Surface Descriptor)として知られる新しい表現は、局所幾何学的複雑さをキャプチャする。
Denoising Transformerモジュールは、マルチモーダル情報を受信し、効率的なグローバル機能アグリゲーションを実現する。
論文 参考訳(メタデータ) (2024-05-10T15:27:43Z) - GeoTransformer: Fast and Robust Point Cloud Registration with Geometric
Transformer [63.85771838683657]
点雲登録のための正確な対応を抽出する問題について検討する。
最近のキーポイントフリー法は、繰り返し可能なキーポイントの検出をバイパスすることで大きなポテンシャルを示している。
そこで我々は,Geometric Transformer (Geo Transformer) を略して提案し,ロバストなスーパーポイントマッチングのための幾何学的特徴を学習する。
論文 参考訳(メタデータ) (2023-07-25T02:36:04Z) - Improving RGB-D Point Cloud Registration by Learning Multi-scale Local
Linear Transformation [38.64501645574878]
ポイントクラウド登録は、2つのポイントクラウドスキャン間の幾何学的変換を推定することを目的としている。
近年,RGB-Dデータをより正確な対応に利用しようと試みている。
マルチスケールな局所線形変換を用いたGAVE(Geometry-Aware Visual Feature Extractor)を提案する。
論文 参考訳(メタデータ) (2022-08-31T14:36:09Z) - GeoSegNet: Point Cloud Semantic Segmentation via Geometric
Encoder-Decoder Modeling [39.35429984469557]
我々はGeoSegNetと呼ばれるロバストなセマンティックセマンティックセマンティクスネットワークを提案する。
我々のGeoSegNetはマルチジオメトリベースのエンコーダと境界誘導デコーダで構成されている。
実験により,提案手法の精度と対象境界の明瞭度を比較検討し,提案手法を比較検討した。
論文 参考訳(メタデータ) (2022-07-14T09:24:05Z) - Geometric Transformer for Fast and Robust Point Cloud Registration [53.10568889775553]
点雲登録のための正確な対応を抽出する問題について検討する。
最近のキーポイントフリー手法は、低オーバーラップシナリオでは難しい繰り返し可能なキーポイントの検出を回避している。
本稿では,ロバストなスーパーポイントマッチングのための幾何学的特徴を学習するための幾何学変換器を提案する。
論文 参考訳(メタデータ) (2022-02-14T13:26:09Z) - Neighborhood-aware Geometric Encoding Network for Point Cloud
Registration [0.0]
周辺を意識した幾何学。
正確なポイントクラウド登録のためのネットワーク(NgeNet)。
NgeNetはモデルに依存しないため、他のネットワークに簡単に移行できる。
論文 参考訳(メタデータ) (2022-01-28T13:04:54Z) - Robust Partial-to-Partial Point Cloud Registration in a Full Range [12.86951061306046]
本稿では,全方向1の部分対部分点クラウド登録(PPR)のためのポーズ不変対応を推定するグラフマッチング・コンセンサス・ネットワーク(GMCNet)を提案する。
GMCNetは、個別に各点クラウドのポイント記述子を、クロスコンテクスト情報や、トレーニングのための接地真理対応を使わずに符号化する。
論文 参考訳(メタデータ) (2021-11-30T17:56:24Z) - PCAM: Product of Cross-Attention Matrices for Rigid Registration of
Point Clouds [79.99653758293277]
PCAMは、キー要素がクロスアテンション行列のポイントワイズ積であるニューラルネットワークである。
そこで本研究では,PCAMがステップ(a)とステップ(b)をディープネットを介して共同で解決する手法によって,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-04T09:23:27Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z) - Self-supervised Geometric Perception [96.89966337518854]
自己教師付き幾何知覚(self-supervised geometric perception)は、基底幾何モデルラベルなしで対応マッチングのための特徴記述子を学ぶためのフレームワークである。
また,SGPは,地上トラスラベルを用いて訓練した教師付きオークルよりも同等か優れる最先端性能を達成できることを示す。
論文 参考訳(メタデータ) (2021-03-04T15:34:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。