論文の概要: Uncertainty-Aware Camera Pose Estimation from Points and Lines
- arxiv url: http://arxiv.org/abs/2107.03890v1
- Date: Thu, 8 Jul 2021 15:19:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 13:33:54.136807
- Title: Uncertainty-Aware Camera Pose Estimation from Points and Lines
- Title(参考訳): 不確かさを検知するカメラのポーズ推定
- Authors: Alexander Vakhitov, Luis Ferraz Colomina, Antonio Agudo, Francesc
Moreno-Noguer
- Abstract要約: Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
- 参考スコア(独自算出の注目度): 101.03675842534415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Perspective-n-Point-and-Line (P$n$PL) algorithms aim at fast, accurate, and
robust camera localization with respect to a 3D model from 2D-3D feature
correspondences, being a major part of modern robotic and AR/VR systems.
Current point-based pose estimation methods use only 2D feature detection
uncertainties, and the line-based methods do not take uncertainties into
account. In our setup, both 3D coordinates and 2D projections of the features
are considered uncertain. We propose PnP(L) solvers based on EPnP and DLS for
the uncertainty-aware pose estimation. We also modify motion-only bundle
adjustment to take 3D uncertainties into account. We perform exhaustive
synthetic and real experiments on two different visual odometry datasets. The
new PnP(L) methods outperform the state-of-the-art on real data in isolation,
showing an increase in mean translation accuracy by 18% on a representative
subset of KITTI, while the new uncertain refinement improves pose accuracy for
most of the solvers, e.g. decreasing mean translation error for the EPnP by 16%
compared to the standard refinement on the same dataset. The code is available
at https://alexandervakhitov.github.io/uncertain-pnp/.
- Abstract(参考訳): Perspective-n-Point-and-Line (P$n$PL)アルゴリズムは、2D-3D特徴対応の3Dモデルに対して、高速で正確で堅牢なカメラローカライゼーションを目標としている。
現在のポイントベースポーズ推定手法は2次元特徴検出の不確実性のみを使用し、ラインベース手法は不確実性を考慮していない。
セットアップでは,特徴の3次元座標と2次元投影の両方が不確実であると考えられる。
本研究では不確実性を考慮したポーズ推定のためのEPnPとDLSに基づくPnP(L)ソルバを提案する。
また、動作のみのバンドル調整を3Dの不確実性を考慮して修正する。
2つの異なる視覚オドメトリーデータセットで、徹底的な合成および実実験を行う。
新しいPnP(L)法は、実際のデータを独立して処理し、KITTIの代表部分集合で平均翻訳精度が18%向上する一方、新しい不確実な改善により、ほとんどの解決者のポーズ精度が向上する。
epnpの平均翻訳誤差は、同じデータセットの標準改良と比較して16%減少する。
コードはhttps://alexandervakhitov.github.io/uncertain-pnp/で入手できる。
関連論文リスト
- SCIPaD: Incorporating Spatial Clues into Unsupervised Pose-Depth Joint Learning [17.99904937160487]
本研究では,教師なし深層学習のための空間的手がかりを取り入れた新しいアプローチであるSCIPaDを紹介する。
SCIPaDは平均翻訳誤差22.2%、カメラポーズ推定タスクの平均角誤差34.8%をKITTI Odometryデータセットで達成している。
論文 参考訳(メタデータ) (2024-07-07T06:52:51Z) - Geometric Transformation Uncertainty for Improving 3D Fetal Brain Pose Prediction from Freehand 2D Ultrasound Videos [0.8579241568505183]
2次元胎児脳画像における3次元面の自動位置決めのための不確実性を考慮した深層学習モデルを提案する。
提案手法であるQAERTSは、現状や不確実性に基づくアプローチよりも優れたポーズ推定精度を示す。
論文 参考訳(メタデータ) (2024-05-21T22:42:08Z) - UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - LInKs "Lifting Independent Keypoints" -- Partial Pose Lifting for
Occlusion Handling with Improved Accuracy in 2D-3D Human Pose Estimation [4.648549457266638]
2Dキネマティックスケルトンから3D人間のポーズを復元する新しい教師なし学習法であるLInKsを提案する。
提案手法は,まず3次元領域に隠された2次元のポーズを持ち上げるという,ユニークな2段階のプロセスに従う。
このリフト・テン・フィルのアプローチは、2次元空間でのみポーズを完了したモデルよりもはるかに正確な結果をもたらす。
論文 参考訳(メタデータ) (2023-09-13T18:28:04Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - Soft Expectation and Deep Maximization for Image Feature Detection [68.8204255655161]
質問をひっくり返し、まず繰り返し可能な3Dポイントを探し、次に検出器を訓練して画像空間にローカライズする、反復的半教師付き学習プロセスSEDMを提案する。
以上の結果から,sdmを用いてトレーニングした新しいモデルでは,シーン内の下位3dポイントのローカライズが容易になった。
論文 参考訳(メタデータ) (2021-04-21T00:35:32Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Learning 2D-3D Correspondences To Solve The Blind Perspective-n-Point
Problem [98.92148855291363]
本稿では、6-DoFの絶対カメラポーズ2D--3D対応を同時に解決するディープCNNモデルを提案する。
実データとシミュレーションデータの両方でテストした結果,本手法は既存手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-03-15T04:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。