論文の概要: DeepI2P: Image-to-Point Cloud Registration via Deep Classification
- arxiv url: http://arxiv.org/abs/2104.03501v1
- Date: Thu, 8 Apr 2021 04:27:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 00:20:28.081328
- Title: DeepI2P: Image-to-Point Cloud Registration via Deep Classification
- Title(参考訳): DeepI2P: ディープ分類によるイメージツーポイントクラウド登録
- Authors: Jiaxin Li, Gim Hee Lee
- Abstract要約: DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
- 参考スコア(独自算出の注目度): 71.3121124994105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents DeepI2P: a novel approach for cross-modality registration
between an image and a point cloud. Given an image (e.g. from a rgb-camera) and
a general point cloud (e.g. from a 3D Lidar scanner) captured at different
locations in the same scene, our method estimates the relative rigid
transformation between the coordinate frames of the camera and Lidar. Learning
common feature descriptors to establish correspondences for the registration is
inherently challenging due to the lack of appearance and geometric correlations
across the two modalities. We circumvent the difficulty by converting the
registration problem into a classification and inverse camera projection
optimization problem. A classification neural network is designed to label
whether the projection of each point in the point cloud is within or beyond the
camera frustum. These labeled points are subsequently passed into a novel
inverse camera projection solver to estimate the relative pose. Extensive
experimental results on Oxford Robotcar and KITTI datasets demonstrate the
feasibility of our approach. Our source code is available at
https://github.com/lijx10/DeepI2P
- Abstract(参考訳): 本稿では,イメージとポイントクラウド間の相互モダリティ登録のための新しいアプローチであるdeepi2pを提案する。
画像(例)が与えられる。
rgbカメラから)および一般的なポイントクラウド(例えば、)
同じシーンの異なる場所で撮影された3dlidarスキャナから、カメラとlidarの座標フレーム間の相対的な剛性変換を推定する。
共通特徴記述子を学習して登録の対応を確立することは、本質的には外観の欠如と2つのモダリティ間の幾何学的相関のため困難である。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
分類ニューラルネットワークは、ポイントクラウド内の各点の投影がカメラフラスタム内かそれ以上であるかをラベル付けするように設計されている。
これらのラベル付きポイントはその後、新しい逆カメラ投影ソルバに渡され、相対的なポーズを推定する。
Oxford Robotcar と KITTI のデータセットによる大規模な実験結果から,本手法の有効性が示された。
ソースコードはhttps://github.com/lijx10/DeepI2Pで入手できる。
関連論文リスト
- Self-supervised Learning of LiDAR 3D Point Clouds via 2D-3D Neural Calibration [107.61458720202984]
本稿では,自律走行シーンにおける3次元知覚を高めるための,新しい自己教師型学習フレームワークを提案する。
本稿では,画像とポイントクラウドデータの領域ギャップを埋めるために,学習可能な変換アライメントを提案する。
我々は剛性ポーズを推定するために密度の高い2D-3D対応を確立する。
論文 参考訳(メタデータ) (2024-01-23T02:41:06Z) - 2D3D-MATR: 2D-3D Matching Transformer for Detection-free Registration
between Images and Point Clouds [38.425876064671435]
本稿では2D3D-MATRを提案する。
提案手法では,入力画像のダウンサンプリングされたパッチと点雲との間の粗い対応をまず計算する。
パッチマッチングにおけるスケールのあいまいさを解決するため,各画像パッチに対してマルチスケールピラミッドを構築し,最適なマッチング画像パッチを適切な解像度で検出する。
論文 参考訳(メタデータ) (2023-08-10T16:10:54Z) - Quantity-Aware Coarse-to-Fine Correspondence for Image-to-Point Cloud
Registration [4.954184310509112]
Image-to-point cloud registrationは、RGBイメージと参照ポイントクラウドの間の相対カメラのポーズを決定することを目的としている。
個々の点と画素とのマッチングは、モダリティギャップによって本質的に曖昧である。
本稿では,局所点集合と画素パッチ間の量認識対応を捉える枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-14T03:55:54Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - CorrI2P: Deep Image-to-Point Cloud Registration via Dense Correspondence [51.91791056908387]
我々は,CorrI2Pと呼ばれる画像間クラウドの登録問題に対処するための,機能に基づく最初の高密度対応フレームワークを提案する。
具体的には、3次元の点雲の前に2次元画像が1対あるとすると、まずそれらを高次元の特徴空間に変換し、特徴を対称的に重なり合う領域に変換して、画像点雲が重なり合う領域を決定する。
論文 参考訳(メタデータ) (2022-07-12T11:49:31Z) - PCAM: Product of Cross-Attention Matrices for Rigid Registration of
Point Clouds [79.99653758293277]
PCAMは、キー要素がクロスアテンション行列のポイントワイズ積であるニューラルネットワークである。
そこで本研究では,PCAMがステップ(a)とステップ(b)をディープネットを介して共同で解決する手法によって,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-04T09:23:27Z) - Robust Place Recognition using an Imaging Lidar [45.37172889338924]
本研究では,画像lidarを用いたロバストなリアルタイム位置認識手法を提案する。
本手法は真不変であり,逆再訪と逆逆再訪に対処できる。
論文 参考訳(メタデータ) (2021-03-03T01:08:31Z) - Unconstrained Matching of 2D and 3D Descriptors for 6-DOF Pose
Estimation [44.66818851668686]
我々は2D点と3D点とに対応する特徴記述子のデータセットを生成する。
テスト時に画像のポーズをローカライズするために,クエリ画像からキーポイントと特徴記述子を抽出する。
マッチングされた特徴の位置は、クエリ画像の位置と向きを予測する頑健なポーズ推定アルゴリズムで使用される。
論文 参考訳(メタデータ) (2020-05-29T11:17:32Z) - Learning 2D-3D Correspondences To Solve The Blind Perspective-n-Point
Problem [98.92148855291363]
本稿では、6-DoFの絶対カメラポーズ2D--3D対応を同時に解決するディープCNNモデルを提案する。
実データとシミュレーションデータの両方でテストした結果,本手法は既存手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-03-15T04:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。