論文の概要: LiM-Loc: Visual Localization with Dense and Accurate 3D Reference Maps Directly Corresponding 2D Keypoints to 3D LiDAR Point Clouds
- arxiv url: http://arxiv.org/abs/2503.23664v1
- Date: Mon, 31 Mar 2025 02:01:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:35:26.563600
- Title: LiM-Loc: Visual Localization with Dense and Accurate 3D Reference Maps Directly Corresponding 2D Keypoints to 3D LiDAR Point Clouds
- Title(参考訳): LiM-Loc: 2次元キーポイントと3次元LiDARポイントクラウドを直接対応させた高密度3次元参照マップによる視覚的ローカライゼーション
- Authors: Masahiko Tsuji, Hitoshi Niigaki, Ryuichi Tanida,
- Abstract要約: 本稿では,3次元LiDAR点雲をキーポイントに割り当てて,高密度かつ高精度な3次元参照マップを生成する手法を提案する。
広い範囲でカメラのポーズを推定するために、広領域のLiDAR点雲を用いて、カメラに見えない点を除去し、2D-3D対応誤差を低減する。
- 参考スコア(独自算出の注目度): 0.40964539027092917
- License:
- Abstract: Visual localization is to estimate the 6-DOF camera pose of a query image in a 3D reference map. We extract keypoints from the reference image and generate a 3D reference map with 3D reconstruction of the keypoints in advance. We emphasize that the more keypoints in the 3D reference map and the smaller the error of the 3D positions of the keypoints, the higher the accuracy of the camera pose estimation. However, previous image-only methods require a huge number of images, and it is difficult to 3D-reconstruct keypoints without error due to inevitable mismatches and failures in feature matching. As a result, the 3D reference map is sparse and inaccurate. In contrast, accurate 3D reference maps can be generated by combining images and 3D sensors. Recently, 3D-LiDAR has been widely used around the world. LiDAR, which measures a large space with high density, has become inexpensive. In addition, accurately calibrated cameras are also widely used, so images that record the external parameters of the camera without errors can be easily obtained. In this paper, we propose a method to directly assign 3D LiDAR point clouds to keypoints to generate dense and accurate 3D reference maps. The proposed method avoids feature matching and achieves accurate 3D reconstruction for almost all keypoints. To estimate camera pose over a wide area, we use the wide-area LiDAR point cloud to remove points that are not visible to the camera and reduce 2D-3D correspondence errors. Using indoor and outdoor datasets, we apply the proposed method to several state-of-the-art local features and confirm that it improves the accuracy of camera pose estimation.
- Abstract(参考訳): 視覚的ローカライゼーションとは、クエリ画像の6-DOFカメラのポーズを3D参照マップで推定することである。
参照画像からキーポイントを抽出し,事前にキーポイントを3次元再構成した3次元参照マップを生成する。
我々は,3D参照マップのキーポイントが大きくなるほど,キーポイントの3D位置の誤差が小さくなるほど,カメラの精度が高くなることを強調した。
しかし,従来の画像のみの手法では大量の画像を必要とするため,不一致や特徴マッチングの失敗などにより,誤りなくキーポイントを3次元再構成することは困難である。
その結果、3D参照マップはスパースで不正確である。
対照的に、画像と3Dセンサーを組み合わせることで、正確な3D参照マップを生成することができる。
近年,3D-LiDARは世界中で広く利用されている。
高密度の大きな空間を測るLiDARは安価になった。
また、精度の高い校正カメラも広く使用されており、エラーのない外部パラメータを記録する画像を容易に得ることができる。
本稿では,3次元LiDAR点雲を直接キーポイントに割り当てて,高密度かつ高精度な3次元参照マップを生成する手法を提案する。
提案手法は特徴マッチングを回避し,ほぼすべてのキーポイントに対して正確な3次元再構成を実現する。
広い範囲でカメラのポーズを推定するために、広領域のLiDAR点雲を用いて、カメラに見えない点を除去し、2D-3D対応誤差を低減する。
室内および屋外のデータセットを用いて、提案手法をいくつかの最先端の局所特徴に適用し、カメラポーズ推定の精度を向上させることを確認する。
関連論文リスト
- Improving Distant 3D Object Detection Using 2D Box Supervision [97.80225758259147]
遠方の物体の欠損した深さを回復するフレームワークであるLR3Dを提案する。
我々のフレームワークは汎用的であり、3D検出手法を広く活用する可能性がある。
論文 参考訳(メタデータ) (2024-03-14T09:54:31Z) - EP2P-Loc: End-to-End 3D Point to 2D Pixel Localization for Large-Scale
Visual Localization [44.05930316729542]
本稿では,3次元点雲の大規模可視化手法EP2P-Locを提案する。
画像中の見えない3D点を除去する簡単なアルゴリズムを提案する。
このタスクで初めて、エンドツーエンドのトレーニングに差別化可能なツールを使用します。
論文 参考訳(メタデータ) (2023-09-14T07:06:36Z) - Neural Voting Field for Camera-Space 3D Hand Pose Estimation [106.34750803910714]
3次元暗黙表現に基づく1枚のRGB画像からカメラ空間の3Dハンドポーズ推定のための統一的なフレームワークを提案する。
本稿では,カメラフラストラムにおける高密度3次元ポイントワイド投票により,カメラ空間の3次元ハンドポーズを推定する,新しい3次元高密度回帰手法を提案する。
論文 参考訳(メタデータ) (2023-05-07T16:51:34Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z) - Soft Expectation and Deep Maximization for Image Feature Detection [68.8204255655161]
質問をひっくり返し、まず繰り返し可能な3Dポイントを探し、次に検出器を訓練して画像空間にローカライズする、反復的半教師付き学習プロセスSEDMを提案する。
以上の結果から,sdmを用いてトレーニングした新しいモデルでは,シーン内の下位3dポイントのローカライズが容易になった。
論文 参考訳(メタデータ) (2021-04-21T00:35:32Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - Monocular Camera Localization in Prior LiDAR Maps with 2D-3D Line
Correspondences [16.34334330572825]
直接2D-3D線対応を用いた先行LiDARマップにおける一眼レフカメラの効率的な位置推定法を提案する。
VIOからのポーズ予測により、粗い2D-3D線対応を効率的に得ることができる。
提案手法は, ドリフトを蓄積することなく, カメラのポーズを効率的に推定できる。
論文 参考訳(メタデータ) (2020-04-01T23:36:30Z) - 3D Crowd Counting via Geometric Attention-guided Multi-View Fusion [50.520192402702015]
本稿では,3次元シーンレベルの密度マップと3次元特徴融合により,多視点群カウントタスクを解くことを提案する。
2D融合と比較すると、3D融合はz次元(高さ)に沿った人々のより多くの情報を抽出し、複数のビューにわたるスケールの変動に対処するのに役立つ。
3D密度マップは、和がカウントである2D密度マップの特性を保ちながら、群衆密度に関する3D情報も提供する。
論文 参考訳(メタデータ) (2020-03-18T11:35:11Z) - RTM3D: Real-time Monocular 3D Detection from Object Keypoints for
Autonomous Driving [26.216609821525676]
最も成功した3D検出器は、3Dバウンディングボックスから2Dボックスへの投射制約を重要な構成要素としている。
画像空間における3次元境界ボックスの9つの視点キーポイントを予測し、3次元空間における3次元視点と2次元視点の幾何学的関係を利用して、次元、位置、方向を復元する。
提案手法は,KITTIベンチマークの最先端性能を達成しつつ,モノクロ画像の3次元検出を行う最初のリアルタイムシステムである。
論文 参考訳(メタデータ) (2020-01-10T08:29:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。