論文の概要: Cross3DReg: Towards a Large-scale Real-world Cross-source Point Cloud Registration Benchmark
- arxiv url: http://arxiv.org/abs/2509.06456v1
- Date: Mon, 08 Sep 2025 09:01:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.026999
- Title: Cross3DReg: Towards a Large-scale Real-world Cross-source Point Cloud Registration Benchmark
- Title(参考訳): Cross3DReg: 大規模な実世界のクロスソースクラウド登録ベンチマークを目指す
- Authors: Zongyi Xu, Zhongpeng Lang, Yilong Chen, Shanshan Zhao, Xiaoshui Huang, Yifan Zuo, Yan Zhang, Qianni Zhang, Xinbo Gao,
- Abstract要約: 異なるセンサーからのポイントクラウドデータを整列することを目的とした、クロスソースのポイントクラウド登録は、3Dビジョンの基本的なタスクである。
ディープ登録モデルをトレーニングするための大規模な実世界のデータセットが公開されていないことや、複数のセンサーによってキャプチャされたポイントクラウド固有の違いが課題となっている。
現在世界最大のマルチモーダル・クロスソース・クラウド登録データセットであるCross3DRegを構築している。
クロスソース・ポイント・クラウド機能の整合性を高めるために,ビジュアル・ジオメトリ・アテンションガイド付きマッチングモジュールを提案する。
- 参考スコア(独自算出の注目度): 57.42211080221526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-source point cloud registration, which aims to align point cloud data from different sensors, is a fundamental task in 3D vision. However, compared to the same-source point cloud registration, cross-source registration faces two core challenges: the lack of publicly available large-scale real-world datasets for training the deep registration models, and the inherent differences in point clouds captured by multiple sensors. The diverse patterns induced by the sensors pose great challenges in robust and accurate point cloud feature extraction and matching, which negatively influence the registration accuracy. To advance research in this field, we construct Cross3DReg, the currently largest and real-world multi-modal cross-source point cloud registration dataset, which is collected by a rotating mechanical lidar and a hybrid semi-solid-state lidar, respectively. Moreover, we design an overlap-based cross-source registration framework, which utilizes unaligned images to predict the overlapping region between source and target point clouds, effectively filtering out redundant points in the irrelevant regions and significantly mitigating the interference caused by noise in non-overlapping areas. Then, a visual-geometric attention guided matching module is proposed to enhance the consistency of cross-source point cloud features by fusing image and geometric information to establish reliable correspondences and ultimately achieve accurate and robust registration. Extensive experiments show that our method achieves state-of-the-art registration performance. Our framework reduces the relative rotation error (RRE) and relative translation error (RTE) by $63.2\%$ and $40.2\%$, respectively, and improves the registration recall (RR) by $5.4\%$, which validates its effectiveness in achieving accurate cross-source registration.
- Abstract(参考訳): 異なるセンサーからのポイントクラウドデータを整列することを目的とした、クロスソースのポイントクラウド登録は、3Dビジョンの基本的なタスクである。
しかし、同じソースのポイントクラウドの登録と比較すると、クロスソースの登録は、2つの主要な課題に直面している。
センサによって誘導される多様なパターンは、ロバストで正確な点雲の特徴抽出とマッチングにおいて大きな課題をもたらし、登録精度に悪影響を及ぼす。
この分野での研究を進めるために、我々はCross3DRegを構築した。Cross3DRegは、現在最大かつ実世界のマルチモーダル・クロスソース・ポイントクラウド登録データセットであり、それぞれ回転機械ライダーとハイブリッド半固体ライダーによって収集される。
さらに、非整合画像を用いて、ソースとターゲットの点雲間の重なり合う領域を予測し、無関係領域の冗長点を効果的にフィルタリングし、非重なり領域のノイズによる干渉を著しく軽減するオーバーラップベースのクロスソース登録フレームワークを設計する。
そして,画像と幾何情報を融合させ,信頼性の高い対応性を確立し,最終的には正確かつロバストな登録を実現することにより,点雲の特徴の整合性を高めるために,視覚幾何学的注意誘導型マッチングモジュールを提案する。
大規模な実験により,本手法が最先端の登録性能を実現することを示す。
我々のフレームワークは相対回転誤差(RRE)と相対翻訳誤差(RTE)をそれぞれ63.2 %$と40.2 %$に削減し、登録リコール(RR)を5.4 %$に改善し、正確なクロスソース登録を実現する上での有効性を検証する。
関連論文リスト
- EEPNet-V2: Patch-to-Pixel Solution for Efficient Cross-Modal Registration between LiDAR Point Cloud and Camera Image [15.975048012603914]
カメラ画像とのマッチングのために,点雲を複数の2次元表現に投影するフレームワークを提案する。
画像マッチングタスクにおいて, クロスモーダル差とLiDAR点雲と画像との重複の制限に対処するために, マルチスケールの特徴抽出ネットワークを導入する。
我々は、KITTIおよびnuScenesデータセットの実験を通して、モデルの性能を検証する。
論文 参考訳(メタデータ) (2025-03-19T15:04:01Z) - Fully-Geometric Cross-Attention for Point Cloud Registration [51.865371511201765]
ポイントクラウド登録のアプローチは、ノイズのあるポイント対応のため、ポイントクラウド間の重なりが低いときに失敗することが多い。
この問題に対処するTransformerベースのアーキテクチャに適した,新たなクロスアテンション機構を導入する。
我々はGromov-Wasserstein距離をクロスアテンションの定式化に統合し、異なる点雲間の点間距離を共同計算する。
点レベルでは,局所的な幾何学的構造情報を細かなマッチングのための点特徴に集約する自己認識機構も考案する。
論文 参考訳(メタデータ) (2025-02-12T10:44:36Z) - VRHCF: Cross-Source Point Cloud Registration via Voxel Representation and Hierarchical Correspondence Filtering [0.7499722271664147]
広い適用性を有するポイントクラウド登録のための新しいフレームワークを提案する。
クロスソースのクラウド登録では、3DCSRデータセット上で最高のRRを獲得し、9.3%の改善率を示す。
論文 参考訳(メタデータ) (2024-03-15T08:00:29Z) - HybridFusion: LiDAR and Vision Cross-Source Point Cloud Fusion [15.94976936555104]
我々はHybridFusionと呼ばれるクロスソース点雲融合アルゴリズムを提案する。
アウトドアの大きなシーンでは、異なる視角から、ソース間の密集点雲を登録することができる。
提案手法は,定性的,定量的な実験を通じて総合的に評価される。
論文 参考訳(メタデータ) (2023-04-10T10:54:54Z) - RDMNet: Reliable Dense Matching Based Point Cloud Registration for
Autonomous Driving [15.26754768427011]
本稿では, RDMNet という新しいネットワークを提案する。
提案手法は, 高い一般化能力を有する全試験データセットにおいて, 既存の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-03-31T14:22:32Z) - A Unified BEV Model for Joint Learning of 3D Local Features and Overlap
Estimation [12.499361832561634]
本稿では,3次元局所特徴の同時学習と重なり推定のための統合鳥眼ビュー(BEV)モデルを提案する。
提案手法は,特に重複の少ないシーンにおいて,重複予測における既存手法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-28T12:01:16Z) - CorrI2P: Deep Image-to-Point Cloud Registration via Dense Correspondence [51.91791056908387]
我々は,CorrI2Pと呼ばれる画像間クラウドの登録問題に対処するための,機能に基づく最初の高密度対応フレームワークを提案する。
具体的には、3次元の点雲の前に2次元画像が1対あるとすると、まずそれらを高次元の特徴空間に変換し、特徴を対称的に重なり合う領域に変換して、画像点雲が重なり合う領域を決定する。
論文 参考訳(メタデータ) (2022-07-12T11:49:31Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。