論文の概要: Unconstrained Matching of 2D and 3D Descriptors for 6-DOF Pose
Estimation
- arxiv url: http://arxiv.org/abs/2005.14502v1
- Date: Fri, 29 May 2020 11:17:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 23:12:43.199403
- Title: Unconstrained Matching of 2D and 3D Descriptors for 6-DOF Pose
Estimation
- Title(参考訳): 6自由度ポーズ推定のための2次元および3次元ディスクリプタの無拘束マッチング
- Authors: Uzair Nadeem, Mohammed Bennamoun, Roberto Togneri, Ferdous Sohel
- Abstract要約: 我々は2D点と3D点とに対応する特徴記述子のデータセットを生成する。
テスト時に画像のポーズをローカライズするために,クエリ画像からキーポイントと特徴記述子を抽出する。
マッチングされた特徴の位置は、クエリ画像の位置と向きを予測する頑健なポーズ推定アルゴリズムで使用される。
- 参考スコア(独自算出の注目度): 44.66818851668686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a novel concept to directly match feature descriptors
extracted from 2D images with feature descriptors extracted from 3D point
clouds. We use this concept to directly localize images in a 3D point cloud. We
generate a dataset of matching 2D and 3D points and their corresponding feature
descriptors, which is used to learn a Descriptor-Matcher classifier. To
localize the pose of an image at test time, we extract keypoints and feature
descriptors from the query image. The trained Descriptor-Matcher is then used
to match the features from the image and the point cloud. The locations of the
matched features are used in a robust pose estimation algorithm to predict the
location and orientation of the query image. We carried out an extensive
evaluation of the proposed method for indoor and outdoor scenarios and with
different types of point clouds to verify the feasibility of our approach.
Experimental results demonstrate that direct matching of feature descriptors
from images and point clouds is not only a viable idea but can also be reliably
used to estimate the 6-DOF poses of query cameras in any type of 3D point cloud
in an unconstrained manner with high precision.
- Abstract(参考訳): 本稿では,2次元画像から抽出した特徴ディスクリプタと,3次元ポイントクラウドから抽出された特徴ディスクリプタとを直接マッチングする新しい概念を提案する。
私たちはこの概念を使って画像を3Dポイントクラウドに直接ローカライズします。
我々は,2D点と3D点をマッチングしたデータセットと,それに対応する特徴記述子を生成し,記述子-Matcher分類子を学習する。
テスト時に画像のポーズを局所化するために,クエリ画像からキーポイントと特徴記述子を抽出する。
トレーニングされたDescriptor-Matcherは、イメージとポイントクラウドの機能にマッチするために使用される。
マッチングされた特徴の位置は、ロバストなポーズ推定アルゴリズムでクエリ画像の位置と向きを予測するために使用される。
提案手法の有効性を検証するため,提案手法を屋内および屋外のシナリオに適用し,異なる種類の点雲を用いて広範囲に評価した。
実験結果から,画像と点雲からの特徴記述子の直接マッチングは,実現可能なアイデアであるだけでなく,任意の種類の3次元点雲におけるクエリカメラの6-DOFのポーズを高精度に推定するためにも,確実に利用できることが示された。
関連論文リスト
- Robust 3D Point Clouds Classification based on Declarative Defenders [18.51700931775295]
3Dポイントの雲は非構造的でスパースであり、2Dイメージは構造的で密度が高い。
本稿では,3次元点雲を2次元画像にマッピングする3つの異なるアルゴリズムについて検討する。
提案手法は敵攻撃に対する高い精度と堅牢性を示す。
論文 参考訳(メタデータ) (2024-10-13T01:32:38Z) - Neural Correspondence Field for Object Pose Estimation [67.96767010122633]
1枚のRGB画像から3次元モデルで剛体物体の6DoFポーズを推定する手法を提案する。
入力画像の画素で3次元オブジェクト座標を予測する古典的対応法とは異なり,提案手法はカメラフラストラムでサンプリングされた3次元クエリポイントで3次元オブジェクト座標を予測する。
論文 参考訳(メタデータ) (2022-07-30T01:48:23Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z) - Robust Place Recognition using an Imaging Lidar [45.37172889338924]
本研究では,画像lidarを用いたロバストなリアルタイム位置認識手法を提案する。
本手法は真不変であり,逆再訪と逆逆再訪に対処できる。
論文 参考訳(メタデータ) (2021-03-03T01:08:31Z) - P2-Net: Joint Description and Detection of Local Features for Pixel and
Point Matching [78.18641868402901]
この研究は、2D画像と3D点雲の微粒な対応を確立するための取り組みである。
画素領域と点領域の固有情報変動を緩和するために,新しい損失関数と組み合わせた超広帯域受信機構を設計した。
論文 参考訳(メタデータ) (2021-03-01T14:59:40Z) - DH3D: Deep Hierarchical 3D Descriptors for Robust Large-Scale 6DoF
Relocalization [56.15308829924527]
生の3D点から直接3次元特徴の検出と記述を共同で学習するシームズネットワークを提案する。
3次元キーポイントを検出するために,局所的な記述子の識別性を教師なしで予測する。
各種ベンチマーク実験により,本手法はグローバルポイントクラウド検索とローカルポイントクラウド登録の両面で競合する結果が得られた。
論文 参考訳(メタデータ) (2020-07-17T20:21:22Z) - 3D Object Detection Method Based on YOLO and K-Means for Image and Point
Clouds [1.9458156037869139]
ライダーに基づく3Dオブジェクト検出と分類タスクは、自動運転に不可欠である。
本稿では,点雲と画像に基づく3次元物体検出手法を提案する。
論文 参考訳(メタデータ) (2020-04-21T04:32:36Z) - Learning 2D-3D Correspondences To Solve The Blind Perspective-n-Point
Problem [98.92148855291363]
本稿では、6-DoFの絶対カメラポーズ2D--3D対応を同時に解決するディープCNNモデルを提案する。
実データとシミュレーションデータの両方でテストした結果,本手法は既存手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-03-15T04:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。