論文の概要: DGC-GNN: Descriptor-free Geometric-Color Graph Neural Network for 2D-3D
Matching
- arxiv url: http://arxiv.org/abs/2306.12547v1
- Date: Wed, 21 Jun 2023 20:21:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 16:13:19.899794
- Title: DGC-GNN: Descriptor-free Geometric-Color Graph Neural Network for 2D-3D
Matching
- Title(参考訳): DGC-GNN:2D-3Dマッチングのための記述子レス幾何色グラフニューラルネットワーク
- Authors: Shuzhe Wang, Juho Kannala, Daniel Barath
- Abstract要約: 視覚ディスクリプタを必要とせず、入力画像中の2Dキーポイントとシーンの3Dポイントクラウドとの直接マッチングが注目度を高めている。
DGC-GNNはGNN(Global-to-local Graph Neural Network)を用いて,鍵点を表すために幾何学的および色彩的手がかりを利用する新しいアルゴリズムである。
我々のグローバル・ローカル・プロシージャはユークリッドと角関係を粗いレベルでエンコードし、局所点マッチングを導く幾何学的埋め込みを形成する。
- 参考スコア(独自算出の注目度): 37.5244714390078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Direct matching of 2D keypoints in an input image to a 3D point cloud of the
scene without requiring visual descriptors has garnered increased interest due
to its lower memory requirements, inherent privacy preservation, and reduced
need for expensive 3D model maintenance compared to visual descriptor-based
methods. However, existing algorithms often compromise on performance,
resulting in a significant deterioration compared to their descriptor-based
counterparts. In this paper, we introduce DGC-GNN, a novel algorithm that
employs a global-to-local Graph Neural Network (GNN) that progressively
exploits geometric and color cues to represent keypoints, thereby improving
matching robustness. Our global-to-local procedure encodes both Euclidean and
angular relations at a coarse level, forming the geometric embedding to guide
the local point matching. We evaluate DGC-GNN on both indoor and outdoor
datasets, demonstrating that it not only doubles the accuracy of the
state-of-the-art descriptor-free algorithm but, also, substantially narrows the
performance gap between descriptor-based and descriptor-free methods. The code
and trained models will be made publicly available.
- Abstract(参考訳): 入力画像中の2Dキーポイントとシーンの3Dポイントクラウドとの直接マッチングは、視覚ディスクリプタを必要とせず、メモリ要件の低減、固有のプライバシー保護、視覚ディスクリプタベースの方法と比較して高価な3Dモデルのメンテナンスの必要性の低減などにより、関心が高まっている。
しかし、既存のアルゴリズムはしばしば性能を損なうため、記述子ベースのアルゴリズムに比べて大幅に劣化する。
本稿では,グローバル・ローカルなグラフニューラルネットワーク(GNN)を用いた新しいアルゴリズムであるDGC-GNNを紹介する。
我々のグローバル・ローカル・プロシージャはユークリッドと角関係を粗いレベルでエンコードし、局所点マッチングを導く幾何学的埋め込みを形成する。
本研究では,dgc-gnnを屋内と屋外の両方のデータセットで評価し,最先端のディスクリプタフリーアルゴリズムの精度を2倍にするだけでなく,ディスクリプタベースとディスクリプタフリーの方法のパフォーマンスギャップを大幅に狭めることを示した。
コードとトレーニングされたモデルは公開されます。
関連論文リスト
- Point Cloud Denoising With Fine-Granularity Dynamic Graph Convolutional Networks [58.050130177241186]
ノイズの摂動は、しばしば3次元の点雲を破損させ、表面の再構成、レンダリング、さらなる処理といった下流のタスクを妨げる。
本稿では,GDGCNと呼ばれる粒度動的グラフ畳み込みネットワークについて紹介する。
論文 参考訳(メタデータ) (2024-11-21T14:19:32Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Exploiting Local Geometry for Feature and Graph Construction for Better
3D Point Cloud Processing with Graph Neural Networks [22.936590869919865]
グラフニューラルネットワークの一般枠組みにおける点表現と局所近傍グラフ構築の改善を提案する。
提案されたネットワークは、トレーニングの収束を高速化する。
分類のための40%のより少ないエポック。
論文 参考訳(メタデータ) (2021-03-28T21:34:59Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z) - Learning to Segment 3D Point Clouds in 2D Image Space [20.119802932358333]
2次元画像空間に3次元点雲を効率よく投影する方法を示す。
U-Netのような従来の2D畳み込みニューラルネットワーク(CNN)はセグメンテーションに適用できる。
論文 参考訳(メタデータ) (2020-03-12T03:18:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。