論文の概要: VRNet: Learning the Rectified Virtual Corresponding Points for 3D Point
Cloud Registration
- arxiv url: http://arxiv.org/abs/2203.13241v1
- Date: Thu, 24 Mar 2022 17:51:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 14:27:44.310598
- Title: VRNet: Learning the Rectified Virtual Corresponding Points for 3D Point
Cloud Registration
- Title(参考訳): VRNet: 3Dポイントクラウド登録のための仮想対応ポイントを学習
- Authors: Zhiyuan Zhang, Jiadai Sun, Yuchao Dai, Bin Fan, Mingyi He
- Abstract要約: 3Dポイントクラウドの登録は、アウトレーヤに対して脆弱であり、対応するポイントを持たないポイントとしてラベル付けされている。
本稿では,両世界の長所を活かし,新しいロバストな3Dポイントクラウド登録フレームワークを提案する。
- 参考スコア(独自算出の注目度): 40.81429160296275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D point cloud registration is fragile to outliers, which are labeled as the
points without corresponding points. To handle this problem, a widely adopted
strategy is to estimate the relative pose based only on some accurate
correspondences, which is achieved by building correspondences on the
identified inliers or by selecting reliable ones. However, these approaches are
usually complicated and time-consuming. By contrast, the virtual point-based
methods learn the virtual corresponding points (VCPs) for all source points
uniformly without distinguishing the outliers and the inliers. Although this
strategy is time-efficient, the learned VCPs usually exhibit serious collapse
degeneration due to insufficient supervision and the inherent distribution
limitation. In this paper, we propose to exploit the best of both worlds and
present a novel robust 3D point cloud registration framework. We follow the
idea of the virtual point-based methods but learn a new type of virtual points
called rectified virtual corresponding points (RCPs), which are defined as the
point set with the same shape as the source and with the same pose as the
target. Hence, a pair of consistent point clouds, i.e. source and RCPs, is
formed by rectifying VCPs to RCPs (VRNet), through which reliable
correspondences between source and RCPs can be accurately obtained. Since the
relative pose between source and RCPs is the same as the relative pose between
source and target, the input point clouds can be registered naturally.
Specifically, we first construct the initial VCPs by using an estimated soft
matching matrix to perform a weighted average on the target points. Then, we
design a correction-walk module to learn an offset to rectify VCPs to RCPs,
which effectively breaks the distribution limitation of VCPs. Finally, we
develop a hybrid loss function to enforce the shape and geometry structure
consistency ...
- Abstract(参考訳): 3dポイントクラウド登録は、対応するポイントのないポイントとしてラベル付けされる異常値に対して脆弱である。
この問題に対処するために広く採用されている戦略は、特定したイリアーに対する対応を構築したり、信頼できるものを選択することで達成される、いくつかの正確な対応のみに基づいて相対的なポーズを推定することである。
しかし、これらのアプローチは通常複雑で時間がかかる。
対照的に、仮想点ベース手法は、外れ値と外れ値とを区別することなく、すべてのソース点の仮想対応点(vcps)を均一に学習する。
この戦略は時間効率が高いが、学習されたVCPは通常、監督の不十分さと固有の分布制限のために深刻な崩壊退化を示す。
本稿では,両世界のベストを活用し,新しいロバストな3dポイントクラウド登録フレームワークを提案する。
我々は,仮想点ベース手法の考え方に従うが,元と同じ形状と対象と同一の姿勢で定義される正則仮想対応点(recurtified virtual corresponding point,rcps)と呼ばれる新しいタイプの仮想点を学習する。
したがって、ソースとRCPの2つの一貫した点雲、すなわち、VCPをRCP(VRNet)に修正することにより、ソースとRCPの信頼性の高い対応を正確に得ることができる。
ソースとRCP間の相対的なポーズはソースとターゲット間の相対的なポーズと同じであるため、入力ポイントクラウドは自然に登録することができる。
具体的には,まず,推定ソフトマッチング行列を用いて初期VCPを構築し,目標点の重み付き平均値を求める。
そこで我々は,VCPをRCPに修正するためのオフセットを学習するための修正ウォークモジュールを設計し,VCPの分布制限を効果的に破る。
最後に、形状と形状構造の整合性を強制するハイブリッド損失関数を開発する。
関連論文リスト
- Trainable Pointwise Decoder Module for Point Cloud Segmentation [12.233802912441476]
ポイントクラウドセグメンテーション(PCS)は、ポイントごとの予測を行い、ロボットや自動運転車が環境を理解することを可能にすることを目的としている。
後処理手法としてトレーニング可能なポイントワイズデコーダモジュール(PDM)を提案する。
また、データ拡張に仮想レンジ画像誘導コピー・ロータート・ペースト戦略を導入する。
論文 参考訳(メタデータ) (2024-08-02T19:29:35Z) - Point Deformable Network with Enhanced Normal Embedding for Point Cloud
Analysis [59.12922158979068]
近年,ポイントクラウド解析において高い性能を示す手法が提案されている。
単純なアーキテクチャは局所的な点群で幾何学的特徴を学ぶことができるが、長距離依存を直接モデル化することができない。
本稿では,表現能力の強い長距離関係を捉えるために,PDNet(Point Deformable Network)を提案する。
論文 参考訳(メタデータ) (2023-12-20T14:52:07Z) - Differentiable Registration of Images and LiDAR Point Clouds with
VoxelPoint-to-Pixel Matching [58.10418136917358]
カメラからの2D画像とLiDARからの3Dポイントクラウドの間のクロスモダリティ登録は、コンピュータビジョンとロボットトレーニングにおいて重要な課題である。
ニューラルネットワークで学習した点パターンと画素パターンのマッチングによる2次元3次元対応の推定
我々は、異なる潜在画素空間を介して3次元特徴を表現するために、構造化されたモダリティマッチングソルバを学習する。
論文 参考訳(メタデータ) (2023-12-07T05:46:10Z) - Variational Relational Point Completion Network for Robust 3D
Classification [59.80993960827833]
可変点雲補完法は、局所的な詳細を欠くため、大域的な形状の骨格を生成する傾向がある。
本稿では2つの魅力的な特性を持つ変分フレームワークであるポイントコンプリートネットワーク(VRCNet)を提案する。
VRCNetは、現実世界のポイントクラウドスキャンにおいて、非常に一般化性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-04-18T17:03:20Z) - Deep Confidence Guided Distance for 3D Partial Shape Registration [14.315501760755609]
部分的から部分的な3次元形状登録のための新しい非定型学習法を提案する。
本稿では,信頼誘導距離ネットワーク(CGD-net)を紹介し,点埋め込みと点雲間の空間距離との学習可能な類似性を融合させる。
論文 参考訳(メタデータ) (2022-01-27T08:40:05Z) - UPDesc: Unsupervised Point Descriptor Learning for Robust Registration [54.95201961399334]
UPDescは、ロバストポイントクラウド登録のためのポイント記述子を学習するための教師なしの方法である。
学習した記述子は既存の教師なし手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2021-08-05T17:11:08Z) - PointDSC: Robust Point Cloud Registration using Deep Spatial Consistency [38.93610732090426]
本稿では,空間的整合性を明確に組み込んだ新しいディープニューラルネットワークであるPointDSCを提案する。
本手法は,いくつかの実世界のデータセットにおいて,最先端の手作りおよび学習に基づく異常者拒絶アプローチを上回っている。
論文 参考訳(メタデータ) (2021-03-09T14:56:08Z) - Robust Point Cloud Registration Framework Based on Deep Graph Matching [5.865029600972316]
3Dポイントクラウド登録は、コンピュータビジョンとロボティクスにおける基本的な問題です。
点群登録のための深層グラフマッチングに基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-07T04:20:29Z) - Unsupervised Learning of 3D Point Set Registration [15.900382629390297]
点雲登録は、幾何変換を探索することで一対の点集合を整列する過程である。
本稿では,新たに導入された深部空間相関表現(SCR)機能に基づく,新しい教師なし登録フレームワークであるDeep-3DAlignerを提案する。
提案手法は,まずランダムに遅延するSCR特徴量を最適化し,次に幾何変換に復号し,ソースとターゲットの点集合を整列させる。
論文 参考訳(メタデータ) (2020-06-11T05:21:38Z) - RPM-Net: Robust Point Matching using Learned Features [79.52112840465558]
RPM-Netは、より敏感で、より堅牢なディープラーニングベースのアプローチである。
既存の方法とは異なり、我々のRPM-Netは、部分的な可視性を備えた対応や点雲の欠如を処理します。
論文 参考訳(メタデータ) (2020-03-30T13:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。