論文の概要: Robust Point Cloud Registration Framework Based on Deep Graph Matching
- arxiv url: http://arxiv.org/abs/2103.04256v1
- Date: Sun, 7 Mar 2021 04:20:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:39:47.068452
- Title: Robust Point Cloud Registration Framework Based on Deep Graph Matching
- Title(参考訳): ディープグラフマッチングに基づくロバストポイントクラウド登録フレームワーク
- Authors: Kexue Fu and Shaolei Liu and Xiaoyuan Luo and Manning Wang
- Abstract要約: 3Dポイントクラウド登録は、コンピュータビジョンとロボティクスにおける基本的な問題です。
点群登録のための深層グラフマッチングに基づく新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.865029600972316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D point cloud registration is a fundamental problem in computer vision and
robotics. There has been extensive research in this area, but existing methods
meet great challenges in situations with a large proportion of outliers and
time constraints, but without good transformation initialization. Recently, a
series of learning-based algorithms have been introduced and show advantages in
speed. Many of them are based on correspondences between the two point clouds,
so they do not rely on transformation initialization. However, these
learning-based methods are sensitive to outliers, which lead to more incorrect
correspondences. In this paper, we propose a novel deep graph matchingbased
framework for point cloud registration. Specifically, we first transform point
clouds into graphs and extract deep features for each point. Then, we develop a
module based on deep graph matching to calculate a soft correspondence matrix.
By using graph matching, not only the local geometry of each point but also its
structure and topology in a larger range are considered in establishing
correspondences, so that more correct correspondences are found. We train the
network with a loss directly defined on the correspondences, and in the test
stage the soft correspondences are transformed into hard one-to-one
correspondences so that registration can be performed by singular value
decomposition. Furthermore, we introduce a transformer-based method to generate
edges for graph construction, which further improves the quality of the
correspondences. Extensive experiments on registering clean, noisy,
partial-to-partial and unseen category point clouds show that the proposed
method achieves state-of-the-art performance. The code will be made publicly
available at https://github.com/fukexue/RGM.
- Abstract(参考訳): 3Dポイントクラウド登録は、コンピュータビジョンとロボティクスにおける基本的な問題です。
この分野では広範な研究が行われてきたが、既存の手法は、多くの異常値と時間的制約がある状況において大きな課題を満たしている。
近年,学習に基づくアルゴリズムが多数導入され,高速化のメリットが示された。
それらの多くは2つの点雲間の対応に基づいているため、変換初期化に依存しない。
しかし、これらの学習に基づく手法は外れ値に敏感であり、より誤った対応をもたらす。
本稿では,ポイントクラウド登録のための新しいディープグラフマッチングベースのフレームワークを提案する。
具体的には、まず点雲をグラフに変換し、各点の深い特徴を抽出する。
そこで我々は, 深部グラフマッチングに基づくモジュールを開発し, ソフト対応行列を計算した。
グラフマッチングを用いることで、各点の局所幾何学だけでなく、より広い範囲におけるその構造やトポロジーも対応付けを確立することで、より正確な対応が見出される。
通信上で直接定義された損失でネットワークを訓練し、テスト段階ではソフト対応をハードな1対1対応に変換し、単価分解により登録が行えるようにします。
さらに,グラフ構築のためのエッジを生成するトランスベース手法を導入し,対応文の品質をさらに向上させる。
クリーン,ノイズ,部分的・部分的・不可視のカテゴリー点雲の登録実験により,提案手法が最先端の性能を達成することを示す。
コードはhttps://github.com/fukexue/RGMで公開される。
関連論文リスト
- SG-PGM: Partial Graph Matching Network with Semantic Geometric Fusion for 3D Scene Graph Alignment and Its Downstream Tasks [14.548198408544032]
我々は3次元シーングラフアライメントを部分的なグラフマッチング問題として扱い、グラフニューラルネットワークを用いてそれを解くことを提案する。
我々は、点雲登録法で学習した幾何学的特徴を再利用し、クラスタ化された点レベルの幾何学的特徴とノードレベルの意味的特徴を関連付ける。
本稿では,3次元シーングラフのノードワイドアライメントを用いて,事前学習した点雲登録手法からマッチング候補を再重み付けする点マッチング再構成手法を提案する。
論文 参考訳(メタデータ) (2024-03-28T15:01:58Z) - A Strong Baseline for Point Cloud Registration via Direct Superpoints Matching [7.308509114539376]
本稿では,グローバルなマッチング方式でスーパーポイントの対応を見つけるための,シンプルで効果的なベースラインを提案する。
我々の単純で効果的なベースラインは、3つのデータセットの最先端メソッドと同等かそれ以上の結果を示している。
論文 参考訳(メタデータ) (2023-07-03T21:33:40Z) - Learnable Graph Matching: A Practical Paradigm for Data Association [74.28753343714858]
これらの問題に対処するための一般的な学習可能なグラフマッチング法を提案する。
提案手法は,複数のMOTデータセット上での最先端性能を実現する。
画像マッチングでは,一般的な屋内データセットであるScanNetで最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-03-27T17:39:00Z) - Robust Point Cloud Registration Framework Based on Deep Graph
Matching(TPAMI Version) [13.286247750893681]
3Dポイントクラウドの登録は、コンピュータビジョンとロボティクスの基本的な問題である。
本稿では,ポイントクラウド登録のための新しいディープグラフマッチングベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-09T06:05:25Z) - REGTR: End-to-end Point Cloud Correspondences with Transformers [79.52112840465558]
我々は、注意機構が明示的な特徴マッチングとRANSACの役割を置き換えることができると推測する。
本稿では,最終文集合を直接予測するエンドツーエンドフレームワークを提案する。
提案手法は3DMatchおよびModelNetベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-28T06:01:00Z) - Geometric Transformer for Fast and Robust Point Cloud Registration [53.10568889775553]
点雲登録のための正確な対応を抽出する問題について検討する。
最近のキーポイントフリー手法は、低オーバーラップシナリオでは難しい繰り返し可能なキーポイントの検出を回避している。
本稿では,ロバストなスーパーポイントマッチングのための幾何学的特徴を学習するための幾何学変換器を提案する。
論文 参考訳(メタデータ) (2022-02-14T13:26:09Z) - GenReg: Deep Generative Method for Fast Point Cloud Registration [18.66568286698704]
我々は,クラウド登録をポイントとする深層生成ニューラルネットワークを探索し,新しいデータ駆動型登録アルゴリズムを提案する。
ModelNet40と7Sceneのデータセットを用いた実験により、提案アルゴリズムが最先端の精度と効率を達成することを示した。
論文 参考訳(メタデータ) (2021-11-23T10:52:09Z) - DeepBBS: Deep Best Buddies for Point Cloud Registration [55.12101890792121]
DeepBBSは、トレーニング中のポイント間の最良の相反する距離を考慮に入れた表現を学ぶための新しい方法である。
実験の結果,従来の手法と比較して性能が向上した。
論文 参考訳(メタデータ) (2021-10-06T19:00:07Z) - Point Cloud Registration using Representative Overlapping Points [10.843159482657303]
本稿では,登録のための識別機能を備えた代表オーバーラップポイントを用いた新しいディープラーニングモデル ROPNetを提案する。
具体的には,エンコーダを用いてポイントオーバーラップスコアの予測にグローバルな特徴を抽出するコンテキスト誘導モジュールを提案する。
ノイズと部分重なり合う点雲を用いたModelNet40上での実験により,提案手法が従来の学習手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-07-06T12:52:22Z) - Learnable Graph Matching: Incorporating Graph Partitioning with Deep
Feature Learning for Multiple Object Tracking [58.30147362745852]
フレーム間のデータアソシエーションは、Multiple Object Tracking(MOT)タスクの中核にある。
既存の手法は、主にトラックレットとフレーム内検出の間のコンテキスト情報を無視する。
そこで本研究では,学習可能なグラフマッチング手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T08:58:45Z) - RPM-Net: Robust Point Matching using Learned Features [79.52112840465558]
RPM-Netは、より敏感で、より堅牢なディープラーニングベースのアプローチである。
既存の方法とは異なり、我々のRPM-Netは、部分的な可視性を備えた対応や点雲の欠如を処理します。
論文 参考訳(メタデータ) (2020-03-30T13:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。