論文の概要: PosDiffNet: Positional Neural Diffusion for Point Cloud Registration in
a Large Field of View with Perturbations
- arxiv url: http://arxiv.org/abs/2401.03167v1
- Date: Sat, 6 Jan 2024 08:58:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 20:15:58.227897
- Title: PosDiffNet: Positional Neural Diffusion for Point Cloud Registration in
a Large Field of View with Perturbations
- Title(参考訳): PosDiffNet:摂動を伴う広い視野における点雲登録のための位置神経拡散
- Authors: Rui She, Sijie Wang, Qiyu Kang, Kai Zhao, Yang Song, Wee Peng Tay,
Tianyu Geng, Xingchao Jian
- Abstract要約: PosDiffNetは、3Dコンピュータビジョンにおけるポイントクラウド登録のモデルである。
ベルトラミフローに基づくグラフニューラル偏微分方程式(PDE)を用いて高次元特徴を求める。
我々は、点雲間のアライメントを容易にするために、高特徴類似度スコアから導かれる多レベル対応を用いる。
我々はPosDiffNetを複数の3Dポイントクラウドデータセット上で評価し、摂動を伴う広い視野でのポイントクラウド登録において、最先端(SOTA)性能を達成することを検証した。
- 参考スコア(独自算出の注目度): 27.45001809414096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point cloud registration is a crucial technique in 3D computer vision with a
wide range of applications. However, this task can be challenging, particularly
in large fields of view with dynamic objects, environmental noise, or other
perturbations. To address this challenge, we propose a model called PosDiffNet.
Our approach performs hierarchical registration based on window-level,
patch-level, and point-level correspondence. We leverage a graph neural partial
differential equation (PDE) based on Beltrami flow to obtain high-dimensional
features and position embeddings for point clouds. We incorporate position
embeddings into a Transformer module based on a neural ordinary differential
equation (ODE) to efficiently represent patches within points. We employ the
multi-level correspondence derived from the high feature similarity scores to
facilitate alignment between point clouds. Subsequently, we use registration
methods such as SVD-based algorithms to predict the transformation using
corresponding point pairs. We evaluate PosDiffNet on several 3D point cloud
datasets, verifying that it achieves state-of-the-art (SOTA) performance for
point cloud registration in large fields of view with perturbations. The
implementation code of experiments is available at
https://github.com/AI-IT-AVs/PosDiffNet.
- Abstract(参考訳): ポイントクラウド登録は、幅広いアプリケーションを持つ3dコンピュータビジョンにおいて重要な技術である。
しかし、特にダイナミックな物体、環境騒音、その他の摂動のある広い視野において、この課題は困難である。
この課題に対処するため,我々はPosDiffNetと呼ばれるモデルを提案する。
提案手法は,ウィンドウレベル,パッチレベル,ポイントレベル対応に基づく階層的登録を行う。
我々はベルトラミフローに基づくグラフニューラル偏微分方程式(PDE)を利用して、点雲の高次元的特徴と位置埋め込みを得る。
位置埋め込みをニューラル常微分方程式(ODE)に基づいてトランスフォーマーモジュールに組み込んで、点内のパッチを効率的に表現する。
点群間のアライメントを容易にするために,高特徴類似度スコアから導出した多レベル対応を用いる。
その後、SVDベースのアルゴリズムのような登録手法を用いて、対応する点対を用いて変換を予測する。
我々はPosDiffNetを複数の3Dポイントクラウドデータセット上で評価し、摂動を伴う広い視野でのポイントクラウド登録において、最先端(SOTA)性能を達成することを検証する。
実験の実装コードはhttps://github.com/AI-IT-AVs/PosDiffNetで公開されている。
関連論文リスト
- P2P-Bridge: Diffusion Bridges for 3D Point Cloud Denoising [81.92854168911704]
私たちは、Diffusion Schr"odingerブリッジをポイントクラウドに適応させる新しいフレームワークを通じて、ポイントクラウドを飾るタスクに取り組みます。
オブジェクトデータセットの実験では、P2P-Bridgeは既存のメソッドよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-08-29T08:00:07Z) - PointDifformer: Robust Point Cloud Registration With Neural Diffusion and Transformer [31.02661827570958]
ポイントクラウド登録は、3Dコンピュータビジョンにおける基本的な技術であり、グラフィック、自律運転、ロボット工学の応用がある。
本稿では,グラフニューラル偏微分方程式(PDE)と熱カーネルシグネチャを利用するロバストポイントクラウド登録手法を提案する。
3Dポイントクラウドデータセットの実証実験により、我々のアプローチは、ポイントクラウド登録のための最先端のパフォーマンスを達成するだけでなく、付加的なノイズや3D形状の摂動に対してより堅牢性を示すことを示した。
論文 参考訳(メタデータ) (2024-04-22T09:50:12Z) - SG-PGM: Partial Graph Matching Network with Semantic Geometric Fusion for 3D Scene Graph Alignment and Its Downstream Tasks [14.548198408544032]
我々は3次元シーングラフアライメントを部分的なグラフマッチング問題として扱い、グラフニューラルネットワークを用いてそれを解くことを提案する。
我々は、点雲登録法で学習した幾何学的特徴を再利用し、クラスタ化された点レベルの幾何学的特徴とノードレベルの意味的特徴を関連付ける。
本稿では,3次元シーングラフのノードワイドアライメントを用いて,事前学習した点雲登録手法からマッチング候補を再重み付けする点マッチング再構成手法を提案する。
論文 参考訳(メタデータ) (2024-03-28T15:01:58Z) - Clustering based Point Cloud Representation Learning for 3D Analysis [80.88995099442374]
本稿では,ポイントクラウド分析のためのクラスタリングに基づく教師付き学習手法を提案する。
現在のデファクトでシーンワイドなトレーニングパラダイムとは異なり、我々のアルゴリズムは点埋め込み空間上でクラス内のクラスタリングを行う。
我々のアルゴリズムは、有名なポイントクラウドセグメンテーションデータセットの顕著な改善を示している。
論文 参考訳(メタデータ) (2023-07-27T03:42:12Z) - Robust Point Cloud Registration Framework Based on Deep Graph
Matching(TPAMI Version) [13.286247750893681]
3Dポイントクラウドの登録は、コンピュータビジョンとロボティクスの基本的な問題である。
本稿では,ポイントクラウド登録のための新しいディープグラフマッチングベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-09T06:05:25Z) - IDEA-Net: Dynamic 3D Point Cloud Interpolation via Deep Embedding
Alignment [58.8330387551499]
我々は、点方向軌跡(すなわち滑らかな曲線)の推定として問題を定式化する。
本稿では,学習した時間的一貫性の助けを借りて問題を解消する,エンドツーエンドのディープラーニングフレームワークであるIDEA-Netを提案する。
各種点群における本手法の有効性を実証し, 定量的かつ視覚的に, 最先端の手法に対する大幅な改善を観察する。
論文 参考訳(メタデータ) (2022-03-22T10:14:08Z) - UPDesc: Unsupervised Point Descriptor Learning for Robust Registration [54.95201961399334]
UPDescは、ロバストポイントクラウド登録のためのポイント記述子を学習するための教師なしの方法である。
学習した記述子は既存の教師なし手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2021-08-05T17:11:08Z) - Dynamic Convolution for 3D Point Cloud Instance Segmentation [146.7971476424351]
動的畳み込みに基づく3次元点雲からのインスタンスセグメンテーション手法を提案する。
我々は、同じ意味圏と閉投票を持つ等質点を幾何学的遠近点に対して収集する。
提案手法は提案不要であり、代わりに各インスタンスの空間的および意味的特性に適応する畳み込みプロセスを利用する。
論文 参考訳(メタデータ) (2021-07-18T09:05:16Z) - Point Cloud Registration using Representative Overlapping Points [10.843159482657303]
本稿では,登録のための識別機能を備えた代表オーバーラップポイントを用いた新しいディープラーニングモデル ROPNetを提案する。
具体的には,エンコーダを用いてポイントオーバーラップスコアの予測にグローバルな特徴を抽出するコンテキスト誘導モジュールを提案する。
ノイズと部分重なり合う点雲を用いたModelNet40上での実験により,提案手法が従来の学習手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-07-06T12:52:22Z) - The Devils in the Point Clouds: Studying the Robustness of Point Cloud
Convolutions [15.997907568429177]
本稿では,点群上の畳み込みネットワークであるPointConvの異なる変種を調査し,入力スケールと回転変化に対する堅牢性を検討する。
3次元幾何学的性質をpointconvへの入力として利用し,新しい視点不変ディスクリプタを導出する。
2D MNIST & CIFAR-10データセットと3D Semantic KITTI & ScanNetデータセットで実験が行われた。
論文 参考訳(メタデータ) (2021-01-19T19:32:38Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。