論文の概要: 3D Focusing-and-Matching Network for Multi-Instance Point Cloud Registration
- arxiv url: http://arxiv.org/abs/2411.07740v1
- Date: Tue, 12 Nov 2024 12:04:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:21:15.548265
- Title: 3D Focusing-and-Matching Network for Multi-Instance Point Cloud Registration
- Title(参考訳): マルチインスタンスポイントクラウド登録のための3次元フォーカス・アンド・マッチネットワーク
- Authors: Liyuan Zhang, Le Hui, Qi Liu, Bo Li, Yuchao Dai,
- Abstract要約: マルチインスタンスポイントクラウド登録のための強力な3D焦点マッチングネットワークを提案する。
自己アテンションと横断アテンションを使用することで、オブジェクトセンターを後退させることで、潜在的なマッチングインスタンスを見つけることができる。
提案手法は,マルチインスタンスポイントクラウド登録タスクにおいて,新たな最先端性能を実現する。
- 参考スコア(独自算出の注目度): 45.579241614565376
- License:
- Abstract: Multi-instance point cloud registration aims to estimate the pose of all instances of a model point cloud in the whole scene. Existing methods all adopt the strategy of first obtaining the global correspondence and then clustering to obtain the pose of each instance. However, due to the cluttered and occluded objects in the scene, it is difficult to obtain an accurate correspondence between the model point cloud and all instances in the scene. To this end, we propose a simple yet powerful 3D focusing-and-matching network for multi-instance point cloud registration by learning the multiple pair-wise point cloud registration. Specifically, we first present a 3D multi-object focusing module to locate the center of each object and generate object proposals. By using self-attention and cross-attention to associate the model point cloud with structurally similar objects, we can locate potential matching instances by regressing object centers. Then, we propose a 3D dual masking instance matching module to estimate the pose between the model point cloud and each object proposal. It performs instance mask and overlap mask masks to accurately predict the pair-wise correspondence. Extensive experiments on two public benchmarks, Scan2CAD and ROBI, show that our method achieves a new state-of-the-art performance on the multi-instance point cloud registration task. Code is available at https://github.com/zlynpu/3DFMNet.
- Abstract(参考訳): マルチインスタンスポイントクラウド登録は、シーン全体のモデルポイントクラウドの全インスタンスのポーズを推定することを目的としている。
既存の手法はすべて、まずグローバル対応を取得し、次にクラスタリングして各インスタンスのポーズを取得する戦略を採用しています。
しかし、シーン内の乱れや隠蔽された物体のため、モデルポイント雲とシーン内のすべてのインスタンスとの正確な対応を得ることは困難である。
この目的のために,複数対のクラウド登録を学習することで,マルチインスタンスポイントクラウド登録のためのシンプルながら強力な3Dフォーカス・アンド・マッチングネットワークを提案する。
具体的には、まず、各オブジェクトの中心を特定し、オブジェクトの提案を生成するための3次元多対象集中モジュールを提示する。
自己アテンションと交差アテンションを用いて、モデルポイントクラウドと構造的に類似したオブジェクトを関連付けることで、オブジェクト中心を回帰することで、潜在的なマッチングインスタンスを見つけることができる。
次に,モデルポイントクラウドと各オブジェクト提案間のポーズを推定する3次元二重マスキングインスタンスマッチングモジュールを提案する。
ペアワイズ対応を正確に予測するために、インスタンスマスクとオーバーラップマスクを実行する。
Scan2CAD と ROBI の2つの公開ベンチマークによる大規模な実験により,本手法がマルチインスタンスポイントクラウド登録タスクにおいて,新たな最先端性能を実現することを示す。
コードはhttps://github.com/zlynpu/3DFMNet.comで入手できる。
関連論文リスト
- Self-supervised 3D Point Cloud Completion via Multi-view Adversarial Learning [61.14132533712537]
我々は、オブジェクトレベルとカテゴリ固有の幾何学的類似性の両方を効果的に活用するフレームワークであるMAL-SPCを提案する。
私たちのMAL-SPCは3Dの完全な監視を一切必要とせず、各オブジェクトに1つの部分点クラウドを必要とするだけです。
論文 参考訳(メタデータ) (2024-07-13T06:53:39Z) - Learning Instance-Aware Correspondences for Robust Multi-Instance Point Cloud Registration in Cluttered Scenes [15.706413763407056]
我々は、インスタンス認識対応の抽出に対する粗大なアプローチであるMIRETRを提案する。
MIRETRは、挑戦的なROBIベンチマークでF1スコアの16.6ポイントで芸術の状態を上回ります。
論文 参考訳(メタデータ) (2024-04-06T08:51:07Z) - PoIFusion: Multi-Modal 3D Object Detection via Fusion at Points of Interest [65.48057241587398]
PoIFusionは、関心点(PoIs)におけるRGBイメージとLiDARポイントクラウドに関する情報を融合するフレームワークである。
提案手法は,各モダリティの視点を維持し,計算にやさしいプロジェクションと計算によってマルチモーダル特徴を得る。
我々はnuScenesとArgoverse2データセットについて広範囲に実験を行い、我々のアプローチを評価した。
論文 参考訳(メタデータ) (2024-03-14T09:28:12Z) - Multi-Model 3D Registration: Finding Multiple Moving Objects in
Cluttered Point Clouds [23.923838486208524]
マルチモデル3D登録問題(Multi-model 3D registration)のバリエーションについて検討する。
マルチモデル登録問題では、異なるポーズでオブジェクトの集合を撮影する2点の雲が与えられる。
私たちは、すべてのオブジェクトが2点の雲の間を移動する様子を同時に再構築したいと考えています。
論文 参考訳(メタデータ) (2024-02-16T18:01:43Z) - Variational Relational Point Completion Network for Robust 3D
Classification [59.80993960827833]
可変点雲補完法は、局所的な詳細を欠くため、大域的な形状の骨格を生成する傾向がある。
本稿では2つの魅力的な特性を持つ変分フレームワークであるポイントコンプリートネットワーク(VRCNet)を提案する。
VRCNetは、現実世界のポイントクラウドスキャンにおいて、非常に一般化性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-04-18T17:03:20Z) - OGC: Unsupervised 3D Object Segmentation from Rigid Dynamics of Point
Clouds [4.709764624933227]
OGCと呼ばれる最初の教師なしの手法を提案し、同時に複数の3Dオブジェクトを1つの前方通過で識別する。
提案手法を5つのデータセット上で広範囲に評価し,オブジェクト部分のインスタンスセグメンテーションにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-10T07:01:08Z) - Voint Cloud: Multi-View Point Cloud Representation for 3D Understanding [80.04281842702294]
本稿では,複数の視点から抽出した特徴の集合として,各3次元点を表す多視点クラウド(Voint Cloud)の概念を紹介する。
この新しい3次元Vointクラウド表現は、3Dポイントクラウド表現のコンパクト性と、マルチビュー表現の自然なビュー認識性を組み合わせたものである。
理論的に確立された機能を持つVointニューラルネットワーク(VointNet)をデプロイし,Voint空間の表現を学習する。
論文 参考訳(メタデータ) (2021-11-30T13:08:19Z) - 3D Object Classification on Partial Point Clouds: A Practical
Perspective [91.81377258830703]
点雲は3次元オブジェクト分類において一般的な形状表現である。
本稿では,任意のポーズの下でオブジェクトインスタンスの部分点雲を分類する実践的な設定を提案する。
本稿では,アライメント分類手法による新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-18T04:00:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。