論文の概要: ViGG: Robust RGB-D Point Cloud Registration using Visual-Geometric Mutual Guidance
- arxiv url: http://arxiv.org/abs/2511.22908v1
- Date: Fri, 28 Nov 2025 06:27:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.787866
- Title: ViGG: Robust RGB-D Point Cloud Registration using Visual-Geometric Mutual Guidance
- Title(参考訳): ViGG: Visual-Geometric Mutual Guidance を用いたロバスト RGB-D Point Cloud Registration
- Authors: Congjia Chen, Shen Yan, Yufu Qu,
- Abstract要約: ViGGは相互誘導を用いた堅牢なRGB-D登録方式である。
3DMatch, ScanNet, KITTIデータセットを用いた実験により, この手法は, 学習自由環境と学習ベース環境の両方において, 最新の最先端手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 18.052751061895215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point cloud registration is a fundamental task in 3D vision. Most existing methods only use geometric information for registration. Recently proposed RGB-D registration methods primarily focus on feature fusion or improving feature learning, which limits their ability to exploit image information and hinders their practical applicability. In this paper, we propose ViGG, a robust RGB-D registration method using mutual guidance. First, we solve clique alignment in a visual-geometric combination form, employing a geometric guidance design to suppress ambiguous cliques. Second, to mitigate accuracy degradation caused by noise in visual matches, we propose a visual-guided geometric matching method that utilizes visual priors to determine the search space, enabling the extraction of high-quality, noise-insensitive correspondences. This mutual guidance strategy brings our method superior robustness, making it applicable for various RGB-D registration tasks. The experiments on 3DMatch, ScanNet and KITTI datasets show that our method outperforms recent state-of-the-art methods in both learning-free and learning-based settings. Code is available at https://github.com/ccjccjccj/ViGG.
- Abstract(参考訳): ポイントクラウドの登録は3Dビジョンの基本的なタスクである。
既存の方法の多くは、幾何学的情報のみを登録に用いている。
近年提案されているRGB-D登録方式は,画像情報の活用能力や実用性を阻害する機能融合や特徴学習の改善に主眼を置いている。
本稿では,相互指導を用いたロバストなRGB-D登録手法であるViGGを提案する。
まず,不明瞭な斜めを抑えるための幾何学的ガイダンス設計を用いて,斜めアライメントを視覚・幾何学の組み合わせ形式で解決する。
第2に,視覚的マッチングにおける雑音による精度劣化を軽減するために,視覚的先行情報を用いて探索空間を判定し,高品質でノイズに敏感な対応を抽出できる幾何マッチング手法を提案する。
この相互誘導戦略は,提案手法の堅牢性に優れ,様々なRGB-D登録タスクに適用できる。
3DMatch, ScanNet, KITTIデータセットを用いた実験により, この手法は, 学習自由環境と学習ベース環境の両方において, 最新の最先端手法よりも優れていることが示された。
コードはhttps://github.com/ccjccjccj/ViGGで入手できる。
関連論文リスト
- DINOReg: Strong Point Cloud Registration with Vision Foundation Model [0.0]
ポイントクラウドの登録は、3Dコンピュータビジョンにおける基本的なタスクである。
近年の研究では、RGB-Dデータから色情報を特徴抽出に取り入れている。
視覚情報と幾何学情報の両方を十分に活用する登録ネットワークであるDINORegを提案する。
論文 参考訳(メタデータ) (2025-09-29T07:15:47Z) - RGBD-Glue: General Feature Combination for Robust RGB-D Point Cloud Registration [0.0]
より緩く、より効果的に組み合わせられる新しい機能の組み合わせフレームワークを提案する。
変換一貫性に基づいた明示的なフィルタは,各機能の弱点を克服可能な組み合わせフレームワーク用に設計されている。
ScanNet と 3DMatch の実験により,本手法が最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2024-05-13T09:56:28Z) - MatchU: Matching Unseen Objects for 6D Pose Estimation from RGB-D Images [57.71600854525037]
RGB-D画像からの6次元ポーズ推定のためのFuse-Describe-Match戦略を提案する。
MatchUは、2Dテクスチャと6Dポーズ予測のための3D幾何学的手がかりを融合する汎用的なアプローチである。
論文 参考訳(メタデータ) (2024-03-03T14:01:03Z) - PointMBF: A Multi-scale Bidirectional Fusion Network for Unsupervised
RGB-D Point Cloud Registration [6.030097207369754]
本稿では,RGB画像と深度画像から生成された点雲との間に,マルチスケールの双方向融合を実現するネットワークを提案する。
提案手法は,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-08-09T08:13:46Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Improving RGB-D Point Cloud Registration by Learning Multi-scale Local
Linear Transformation [38.64501645574878]
ポイントクラウド登録は、2つのポイントクラウドスキャン間の幾何学的変換を推定することを目的としている。
近年,RGB-Dデータをより正確な対応に利用しようと試みている。
マルチスケールな局所線形変換を用いたGAVE(Geometry-Aware Visual Feature Extractor)を提案する。
論文 参考訳(メタデータ) (2022-08-31T14:36:09Z) - Refer-it-in-RGBD: A Bottom-up Approach for 3D Visual Grounding in RGBD
Images [69.5662419067878]
RGBD画像における接地参照表現は新たな分野である。
本稿では,参照する物体が閉塞により部分的にスキャンされる場合が多い単視点rgbd画像における3次元視覚グランド化の新たな課題を提案する。
提案手法はまず,RGBD画像内の関連領域をローカライズするヒートマップを生成するために,下層の言語と視覚的特徴を融合させる。
次に、ヒートマップに基づく適応的特徴学習を行い、他のビジオ言語融合とオブジェクトレベルのマッチングを行い、最後に参照したオブジェクトを接地する。
論文 参考訳(メタデータ) (2021-03-14T11:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。