論文の概要: Generative Point Cloud Registration
- arxiv url: http://arxiv.org/abs/2512.09407v1
- Date: Wed, 10 Dec 2025 08:01:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.444086
- Title: Generative Point Cloud Registration
- Title(参考訳): ジェネレーティブポイントクラウド登録
- Authors: Haobo Jiang, Jin Xie, Jian Yang, Liang Yu, Jianmin Zheng,
- Abstract要約: 本稿では,新しい3次元登録パラダイムであるジェネレーティブ・ポイント・クラウド・レジストレーションを提案する。
私たちのキーとなるアイデアは、ソースとターゲットポイントのクラウドに整合した、クロスビューの一貫性のあるイメージペアを生成することです。
そこで本研究では,マッチング固有で制御可能な2次元生成モデルであるMatch-ControlNetを提案する。
- 参考スコア(独自算出の注目度): 39.19949818461193
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a novel 3D registration paradigm, Generative Point Cloud Registration, which bridges advanced 2D generative models with 3D matching tasks to enhance registration performance. Our key idea is to generate cross-view consistent image pairs that are well-aligned with the source and target point clouds, enabling geometry-color feature fusion to facilitate robust matching. To ensure high-quality matching, the generated image pair should feature both 2D-3D geometric consistency and cross-view texture consistency. To achieve this, we introduce Match-ControlNet, a matching-specific, controllable 2D generative model. Specifically, it leverages the depth-conditioned generation capability of ControlNet to produce images that are geometrically aligned with depth maps derived from point clouds, ensuring 2D-3D geometric consistency. Additionally, by incorporating a coupled conditional denoising scheme and coupled prompt guidance, Match-ControlNet further promotes cross-view feature interaction, guiding texture consistency generation. Our generative 3D registration paradigm is general and could be seamlessly integrated into various registration methods to enhance their performance. Extensive experiments on 3DMatch and ScanNet datasets verify the effectiveness of our approach.
- Abstract(参考訳): 本稿では,新しい3次元登録パラダイムであるジェネレーティブ・ポイント・クラウド・レジストレーションを提案する。
私たちのキーとなるアイデアは、ソースとターゲットポイントの雲によく整合した、ビュー間の一貫性のあるイメージペアを生成することで、幾何色の特徴融合が堅牢なマッチングを容易にすることです。
高品質なマッチングを保証するため、生成した画像ペアは2D-3Dの幾何整合性と横方向のテクスチャ整合性の両方を特徴とする。
そこで本研究では,マッチング固有で制御可能な2次元生成モデルであるMatch-ControlNetを提案する。
具体的には、ControlNetの深度条件付き生成機能を利用して、点雲から派生した深度マップに幾何学的に整合した画像を生成し、2D-3Dの幾何的整合性を確保する。
さらに、結合された条件記述スキームと組み合わせたプロンプトガイダンスを組み込むことで、Match-ControlNetは、相互ビューの特徴的相互作用を促進し、テクスチャの整合性の生成を導く。
我々の生成3D登録パラダイムは汎用的であり、様々な登録手法にシームレスに統合して性能を向上させることができる。
3DMatchとScanNetデータセットの大規模な実験により、我々のアプローチの有効性が検証された。
関連論文リスト
- CDI3D: Cross-guided Dense-view Interpolation for 3D Reconstruction [25.468907201804093]
大規模再構成モデル (LRM) は, 2次元拡散モデルにより生成された多視点画像を利用して3次元コンテンツを抽出する際の大きな可能性を示している。
しかし、2次元拡散モデルはしばしば、強い多視点一貫性を持つ高密度画像を生成するのに苦労する。
CDI3Dは,高画質で高画質な3D画像生成を実現するためのフィードフォワードフレームワークである。
論文 参考訳(メタデータ) (2025-03-11T03:08:43Z) - F3D-Gaus: Feed-forward 3D-aware Generation on ImageNet with Cycle-Aggregative Gaussian Splatting [35.625593119642424]
本稿では,モノケプラーデータセットから3次元認識を一般化する問題に取り組む。
画素整列型ガウススプラッティングに基づく新しいフィードフォワードパイプラインを提案する。
また,学習した3次元表現において,クロスビューの一貫性を強制する自己教師付きサイクル集約的制約を導入する。
論文 参考訳(メタデータ) (2025-01-12T04:44:44Z) - GaussianAnything: Interactive Point Cloud Flow Matching For 3D Object Generation [75.39457097832113]
本稿では,インタラクティブなポイントクラウド構造ラテント空間を備えたスケーラブルで高品質な3D生成を実現する,新しい3D生成フレームワークを提案する。
本フレームワークでは,複数ビューのRGB-D(epth)-N(ormal)レンダリングを入力として使用する変分オートエンコーダを,3次元形状情報を保存する独自のラテント空間設計を用いて構成する。
提案手法であるGaussianAnythingは,複数モード条件付き3D生成をサポートし,ポイントクラウド,キャプション,単一画像入力を可能にする。
論文 参考訳(メタデータ) (2024-11-12T18:59:32Z) - Guide3D: Create 3D Avatars from Text and Image Guidance [55.71306021041785]
Guide3Dは拡散モデルに基づく3Dアバター生成のためのテキスト・画像誘導生成モデルである。
我々のフレームワークは、トポロジカルかつ構造的に正しい幾何と高分解能なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-18T17:55:47Z) - CorrI2P: Deep Image-to-Point Cloud Registration via Dense Correspondence [51.91791056908387]
我々は,CorrI2Pと呼ばれる画像間クラウドの登録問題に対処するための,機能に基づく最初の高密度対応フレームワークを提案する。
具体的には、3次元の点雲の前に2次元画像が1対あるとすると、まずそれらを高次元の特徴空間に変換し、特徴を対称的に重なり合う領域に変換して、画像点雲が重なり合う領域を決定する。
論文 参考訳(メタデータ) (2022-07-12T11:49:31Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。