論文の概要: Improving RGB-D Point Cloud Registration by Learning Multi-scale Local
Linear Transformation
- arxiv url: http://arxiv.org/abs/2208.14893v2
- Date: Thu, 1 Sep 2022 01:01:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 11:37:17.197700
- Title: Improving RGB-D Point Cloud Registration by Learning Multi-scale Local
Linear Transformation
- Title(参考訳): マルチスケール局所線形変換学習によるRGB-Dポイントクラウド登録の改善
- Authors: Ziming Wang, Xiaoliang Huo, Zhenghao Chen, Jing Zhang, Lu Sheng, Dong
Xu
- Abstract要約: ポイントクラウド登録は、2つのポイントクラウドスキャン間の幾何学的変換を推定することを目的としている。
近年,RGB-Dデータをより正確な対応に利用しようと試みている。
マルチスケールな局所線形変換を用いたGAVE(Geometry-Aware Visual Feature Extractor)を提案する。
- 参考スコア(独自算出の注目度): 38.64501645574878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point cloud registration aims at estimating the geometric transformation
between two point cloud scans, in which point-wise correspondence estimation is
the key to its success. In addition to previous methods that seek
correspondences by hand-crafted or learnt geometric features, recent point
cloud registration methods have tried to apply RGB-D data to achieve more
accurate correspondence. However, it is not trivial to effectively fuse the
geometric and visual information from these two distinctive modalities,
especially for the registration problem. In this work, we propose a new
Geometry-Aware Visual Feature Extractor (GAVE) that employs multi-scale local
linear transformation to progressively fuse these two modalities, where the
geometric features from the depth data act as the geometry-dependent
convolution kernels to transform the visual features from the RGB data. The
resultant visual-geometric features are in canonical feature spaces with
alleviated visual dissimilarity caused by geometric changes, by which more
reliable correspondence can be achieved. The proposed GAVE module can be
readily plugged into recent RGB-D point cloud registration framework. Extensive
experiments on 3D Match and ScanNet demonstrate that our method outperforms the
state-of-the-art point cloud registration methods even without correspondence
or pose supervision. The code is available at: https://github.com/514DNA/LLT.
- Abstract(参考訳): 点クラウド登録は、2点クラウドスキャン間の幾何学的変換を推定することを目的としており、点対応推定がその成功の鍵となる。
近年,手作り・学習した幾何学的特徴による対応を求める従来の手法に加えて,RGB-Dデータを用いてより正確な対応を試みている。
しかし、これらの2つの特異なモード、特に登録問題から幾何学的および視覚的情報を効果的に解き放つことは容易ではない。
本研究では,多スケールの局所線形変換を用いて,深度データからの幾何学的特徴を幾何依存畳み込み核として作用させ,rgbデータから視覚的特徴を変換する,新たな幾何認識型視覚特徴抽出器(gave)を提案する。
結果として得られる視覚幾何学的特徴は、幾何学的変化による視覚的相違を緩和した標準的特徴空間にあり、より信頼性の高い対応が達成できる。
提案されたGAVEモジュールは、最新のRGB-Dポイントクラウド登録フレームワークに簡単にプラグインできる。
3D Match と ScanNet の大規模な実験により,我々の手法は通信やポーズの監督なしに,最先端のクラウド登録方法よりも優れていることが示された。
コードはhttps://github.com/514dna/llt。
関連論文リスト
- RGBD-Glue: General Feature Combination for Robust RGB-D Point Cloud Registration [0.0]
より緩く、より効果的に組み合わせられる新しい機能の組み合わせフレームワークを提案する。
変換一貫性に基づいた明示的なフィルタは,各機能の弱点を克服可能な組み合わせフレームワーク用に設計されている。
ScanNet と 3DMatch の実験により,本手法が最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2024-05-13T09:56:28Z) - Zero-Shot Point Cloud Registration [94.39796531154303]
ZeroRegは、ポイントクラウドデータセットのトレーニングを不要にする最初のゼロショットポイントクラウド登録アプローチである。
ZeroRegの基盤は、キーポイントからポイントクラウドへの画像特徴の新たな移行であり、三次元幾何学的近傍からの情報を集約することによって強化されている。
3DMatch、3DLoMatch、ScanNetなどのベンチマークでは、ZeroRegはそれぞれ84%、46%、75%という印象的なリコール比(RR)を達成した。
論文 参考訳(メタデータ) (2023-12-05T11:33:16Z) - PointMBF: A Multi-scale Bidirectional Fusion Network for Unsupervised
RGB-D Point Cloud Registration [6.030097207369754]
本稿では,RGB画像と深度画像から生成された点雲との間に,マルチスケールの双方向融合を実現するネットワークを提案する。
提案手法は,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-08-09T08:13:46Z) - PCR-CG: Point Cloud Registration via Deep Explicit Color and Geometry [28.653015760036602]
色信号を幾何学表現に明示的に埋め込む新しい3Dポイントクラウド登録モジュールを提案する。
我々の重要な貢献は、色信号から学習した深い特徴を幾何学的表現に埋め込む2D-3Dクロスモダリティ学習アルゴリズムである。
本研究は, 登録作業において, 鮮明な深色特徴を点雲に関連付けるという大きな利点を明らかにした。
論文 参考訳(メタデータ) (2023-02-28T08:50:17Z) - Robust Point Cloud Registration Framework Based on Deep Graph
Matching(TPAMI Version) [13.286247750893681]
3Dポイントクラウドの登録は、コンピュータビジョンとロボティクスの基本的な問題である。
本稿では,ポイントクラウド登録のための新しいディープグラフマッチングベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-09T06:05:25Z) - PointMCD: Boosting Deep Point Cloud Encoders via Multi-view Cross-modal
Distillation for 3D Shape Recognition [55.38462937452363]
本稿では,教師として事前訓練されたディープイメージエンコーダ,学生としてディープポイントエンコーダを含む多視点クロスモーダル蒸留アーキテクチャを提案する。
複数ビューの視覚的および幾何学的記述子をペアワイズにアライメントすることで、より強力なディープポイントエンコーダを、疲労や複雑なネットワーク修正を伴わずに得ることができる。
論文 参考訳(メタデータ) (2022-07-07T07:23:20Z) - Robust Point Cloud Registration Framework Based on Deep Graph Matching [5.865029600972316]
3Dポイントクラウド登録は、コンピュータビジョンとロボティクスにおける基本的な問題です。
点群登録のための深層グラフマッチングに基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-07T04:20:29Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z) - ParaNet: Deep Regular Representation for 3D Point Clouds [62.81379889095186]
ParaNetは、3Dポイントクラウドを表現するための新しいエンドツーエンドのディープラーニングフレームワークである。
不規則な3D点雲を通常の2Dカラー画像に変換する。
多視点投影とボキセル化に基づく従来の正規表現法とは異なり、提案した表現は微分可能で可逆である。
論文 参考訳(メタデータ) (2020-12-05T13:19:55Z) - RPM-Net: Robust Point Matching using Learned Features [79.52112840465558]
RPM-Netは、より敏感で、より堅牢なディープラーニングベースのアプローチである。
既存の方法とは異なり、我々のRPM-Netは、部分的な可視性を備えた対応や点雲の欠如を処理します。
論文 参考訳(メタデータ) (2020-03-30T13:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。