論文の概要: Monocular Camera Localization in Prior LiDAR Maps with 2D-3D Line
Correspondences
- arxiv url: http://arxiv.org/abs/2004.00740v2
- Date: Fri, 31 Jul 2020 17:22:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 19:13:00.420008
- Title: Monocular Camera Localization in Prior LiDAR Maps with 2D-3D Line
Correspondences
- Title(参考訳): 2D-3Dライン対応付き先行LiDARマップにおける単眼カメラの定位
- Authors: Huai Yu, Weikun Zhen, Wen Yang, Ji Zhang, Sebastian Scherer
- Abstract要約: 直接2D-3D線対応を用いた先行LiDARマップにおける一眼レフカメラの効率的な位置推定法を提案する。
VIOからのポーズ予測により、粗い2D-3D線対応を効率的に得ることができる。
提案手法は, ドリフトを蓄積することなく, カメラのポーズを効率的に推定できる。
- 参考スコア(独自算出の注目度): 16.34334330572825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Light-weight camera localization in existing maps is essential for
vision-based navigation. Currently, visual and visual-inertial odometry
(VO\&VIO) techniques are well-developed for state estimation but with
inevitable accumulated drifts and pose jumps upon loop closure. To overcome
these problems, we propose an efficient monocular camera localization method in
prior LiDAR maps using direct 2D-3D line correspondences. To handle the
appearance differences and modality gaps between LiDAR point clouds and images,
geometric 3D lines are extracted offline from LiDAR maps while robust 2D lines
are extracted online from video sequences. With the pose prediction from VIO,
we can efficiently obtain coarse 2D-3D line correspondences. Then the camera
poses and 2D-3D correspondences are iteratively optimized by minimizing the
projection error of correspondences and rejecting outliers. Experimental
results on the EurocMav dataset and our collected dataset demonstrate that the
proposed method can efficiently estimate camera poses without accumulated
drifts or pose jumps in structured environments.
- Abstract(参考訳): 既存の地図における軽量カメラのローカライゼーションは、視覚ベースのナビゲーションに不可欠である。
現在、視覚および視覚慣性オドメトリ(vo\&vio)技術は状態推定のためによく開発されているが、ループ閉包時に必然的に蓄積されたドリフトとポーズジャンプがある。
これらの問題を解決するために,直接2D-3D線対応を用いた先行LiDARマップにおける効率的な単眼カメラのローカライズ手法を提案する。
画像とLiDAR点雲の出現差とモダリティギャップに対処するため,LDARマップから幾何学的3D線をオフラインに抽出し,ビデオシーケンスからロバストな2D線をオンライン抽出する。
VIOからのポーズ予測により、粗い2D-3D線対応を効率的に得ることができる。
次に、カメラポーズと2D-3D対応を、対応の投影誤差を最小化し、出力を拒否することで繰り返し最適化する。
eurocmavデータセットと収集したデータセットにおける実験結果から,提案手法は,構造化された環境でのドリフトやジャンプを蓄積することなく,効率的にカメラポーズを推定できることが示されている。
関連論文リスト
- EP2P-Loc: End-to-End 3D Point to 2D Pixel Localization for Large-Scale
Visual Localization [44.05930316729542]
本稿では,3次元点雲の大規模可視化手法EP2P-Locを提案する。
画像中の見えない3D点を除去する簡単なアルゴリズムを提案する。
このタスクで初めて、エンドツーエンドのトレーニングに差別化可能なツールを使用します。
論文 参考訳(メタデータ) (2023-09-14T07:06:36Z) - Improving Feature-based Visual Localization by Geometry-Aided Matching [21.1967752160412]
外観情報と幾何学的文脈の両方を用いて2D-3D特徴マッチングを改善する新しい2D-3Dマッチング手法であるGeometry-Aided Matching (GAM)を導入する。
GAMは高精度を維持しながら2D-3Dマッチのリコールを大幅に強化することができる。
提案手法は,複数の視覚的ローカライゼーションデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2022-11-16T07:02:12Z) - Multi-modal 3D Human Pose Estimation with 2D Weak Supervision in
Autonomous Driving [74.74519047735916]
自動運転車(AV)における3次元ポーズ推定(HPE)は,多くの要因において他のユースケースと異なる。
他のユースケース(仮想現実、ゲーム、アニメーションなど)のために収集されたデータは、AVアプリケーションには使用できない可能性がある。
本稿では,この問題をAV設定で緩和するための最初のアプローチの1つを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:57:16Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z) - Lidar-Monocular Surface Reconstruction Using Line Segments [5.542669744873386]
LIDARスキャンと画像データの両方で検出される一般的な幾何学的特徴を利用して、2つのセンサからのデータを高レベル空間で処理することを提案する。
提案手法は, 高精度な地中真理推定を必要とせず, 最先端のLIDARサーベイに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2021-04-06T19:49:53Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - Learning 2D-3D Correspondences To Solve The Blind Perspective-n-Point
Problem [98.92148855291363]
本稿では、6-DoFの絶対カメラポーズ2D--3D対応を同時に解決するディープCNNモデルを提案する。
実データとシミュレーションデータの両方でテストした結果,本手法は既存手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-03-15T04:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。