論文の概要: Can You Trust Your Pose? Confidence Estimation in Visual Localization
- arxiv url: http://arxiv.org/abs/2010.00347v1
- Date: Thu, 1 Oct 2020 12:25:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 08:20:13.132018
- Title: Can You Trust Your Pose? Confidence Estimation in Visual Localization
- Title(参考訳): あなたは自分のポーズを信用できますか。
視覚定位における信頼度推定
- Authors: Luca Ferranti, Xiaotian Li, Jani Boutellier, Juho Kannala
- Abstract要約: 視覚的に推定されたポーズの信頼性を定量化することを目的としている。
また,提案手法は,既存のポーズ推定パイプラインの精度向上という2次目標を達成するためにも利用できることを示す。
提案手法は計算量的に軽量であり、ポーズ推定の計算作業に無視できる増加しか加えない。
- 参考スコア(独自算出の注目度): 17.23405466562484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camera pose estimation in large-scale environments is still an open question
and, despite recent promising results, it may still fail in some situations.
The research so far has focused on improving subcomponents of estimation
pipelines, to achieve more accurate poses. However, there is no guarantee for
the result to be correct, even though the correctness of pose estimation is
critically important in several visual localization applications,such as in
autonomous navigation. In this paper we bring to attention a novel research
question, pose confidence estimation,where we aim at quantifying how reliable
the visually estimated pose is. We develop a novel confidence measure to fulfil
this task and show that it can be flexibly applied to different datasets,indoor
or outdoor, and for various visual localization pipelines.We also show that the
proposed techniques can be used to accomplish a secondary goal: improving the
accuracy of existing pose estimation pipelines. Finally, the proposed approach
is computationally light-weight and adds only a negligible increase to the
computational effort of pose estimation.
- Abstract(参考訳): 大規模環境でのカメラポーズ推定は依然として未解決の問題であり、最近の有望な結果にもかかわらず、いくつかの状況では失敗する可能性がある。
これまでの研究は、より正確なポーズを達成するために、推定パイプラインのサブコンポーネントの改善に注力してきた。
しかし、位置推定の正確性は、自律ナビゲーションなど、いくつかの視覚的ローカライズアプリケーションにおいて極めて重要であるにもかかわらず、結果が正しいという保証はない。
本稿では,視覚的に推定されたポーズがどの程度信頼性が高いかの定量化を目的として,新しい研究課題を提起する。
我々は,この課題を満たすための新しい信頼度尺度を開発し,様々なデータセット,屋内,屋外,および様々な視覚的位置決めパイプラインに柔軟に適用できることを示し,提案手法が既存のポーズ推定パイプラインの精度向上という2次目標を達成するために利用できることを示す。
最後に,提案手法は計算量的に軽量であり,ポーズ推定の計算量の増加は無視できない。
関連論文リスト
- End-to-End Probabilistic Geometry-Guided Regression for 6DoF Object Pose Estimation [5.21401636701889]
最先端の6Dオブジェクトのポーズ推定器は、オブジェクト観察によってオブジェクトのポーズを直接予測する。
最先端アルゴリズムGDRNPPを再構成し,EPRO-GDRを導入する。
提案手法は,1つのポーズではなく1つのポーズ分布を予測することで,最先端の単一ビューのポーズ推定を改善することができることを示す。
論文 参考訳(メタデータ) (2024-09-18T09:11:31Z) - DVMNet: Computing Relative Pose for Unseen Objects Beyond Hypotheses [59.51874686414509]
現在のアプローチは、多数の離散的なポーズ仮説を持つ連続的なポーズ表現を近似している。
本稿では,DVMNet(Deep Voxel Matching Network)を提案する。
提案手法は,最先端の手法に比べて計算コストの低い新しいオブジェクトに対して,より正確なポーズ推定を行う。
論文 参考訳(メタデータ) (2024-03-20T15:41:32Z) - PoseMatcher: One-shot 6D Object Pose Estimation by Deep Feature Matching [51.142988196855484]
本稿では,PoseMatcherを提案する。
3ビューシステムに基づくオブジェクトと画像のマッチングのための新しいトレーニングパイプラインを作成します。
PoseMatcherは、画像とポイントクラウドの異なる入力モダリティに対応できるように、IO-Layerを導入します。
論文 参考訳(メタデータ) (2023-04-03T21:14:59Z) - VL4Pose: Active Learning Through Out-Of-Distribution Detection For Pose
Estimation [79.50280069412847]
VL4Poseは、分布外検出によるアクティブな学習のための第一原理的アプローチである。
我々の解は、最大推定により訓練された単純なパラメトリックベイズネットワークを介してポーズをモデル化することを含む。
我々はMPII, LSP, ICVLの3つのデータセットに対して定性的かつ定量的な実験を行い, 人手ポーズ推定を行った。
論文 参考訳(メタデータ) (2022-10-12T09:03:55Z) - Ki-Pode: Keypoint-based Implicit Pose Distribution Estimation of Rigid
Objects [1.209625228546081]
本稿では,新しいポーズ分布推定法を提案する。
オブジェクトのポーズ上の確率分布の暗黙的な定式化は、キーポイントの集合としてのオブジェクトの中間表現から導かれる。
本手法は,YCB-VおよびT-LESSデータセット上での回転分布推定のタスクに基づいて評価されている。
論文 参考訳(メタデータ) (2022-09-20T11:59:05Z) - Visual-based Positioning and Pose Estimation [0.0]
近年のディープラーニングとコンピュータビジョンの進歩は、ハイレベルな視覚分析タスクを調査する絶好の機会となる。
人間の位置推定と人間のポーズ推定は最近の報告で大幅に改善されているが、完全ではなく、誤位置推定であり、ビデオフレーム間でのポーズ推定が期待できる。
視覚に基づく位置決めとポーズ推定タスクに適した2つの動作パイプラインを探索・開発した。
論文 参考訳(メタデータ) (2022-04-20T05:30:34Z) - SporeAgent: Reinforced Scene-level Plausibility for Object Pose
Refinement [28.244027792644097]
深度とRGBに基づくポーズ改善アプローチは、結果のポーズ推定の精度を高めるが、視覚的アライメントを考慮するとあいまいさの影響を受けやすい。
可視性を考慮するとあいまいさが減少し、その結果、乱雑な環境でより正確にポーズを予測できることが示される。
LINEMOD および YCB-VIDEO データセットを用いた実験により, 深度に基づく精錬手法の最先端性能が実証された。
論文 参考訳(メタデータ) (2022-01-01T20:26:19Z) - PDC-Net+: Enhanced Probabilistic Dense Correspondence Network [161.76275845530964]
高度確率密度対応ネットワーク(PDC-Net+)は、精度の高い高密度対応を推定できる。
我々は、堅牢で一般化可能な不確実性予測に適したアーキテクチャと強化されたトレーニング戦略を開発する。
提案手法は,複数の挑戦的幾何マッチングと光学的フローデータセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-09-28T17:56:41Z) - Learning Dynamics via Graph Neural Networks for Human Pose Estimation
and Tracking [98.91894395941766]
ポーズ検出とは無関係なポーズダイナミクスを学習する新しいオンライン手法を提案する。
具体的には、空間的・時間的情報と視覚的情報の両方を明示的に考慮したグラフニューラルネットワーク(GNN)を通して、このダイナミクスの予測を導出する。
PoseTrack 2017とPoseTrack 2018データセットの実験では、提案手法が人間のポーズ推定とトラッキングタスクの両方において、技術の現状よりも優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2021-06-07T16:36:50Z) - Learning Accurate Dense Correspondences and When to Trust Them [161.76275845530964]
2つの画像に関連する密度の高い流れ場と、堅牢な画素方向の信頼度マップの推定を目指しています。
フロー予測とその不確実性を共同で学習するフレキシブルな確率的アプローチを開発する。
本手法は,幾何学的マッチングと光フローデータセットに挑戦する最新の結果を得る。
論文 参考訳(メタデータ) (2021-01-05T18:54:11Z) - A New Distributional Ranking Loss With Uncertainty: Illustrated in
Relative Depth Estimation [0.0]
単一画像からの相対深度推定問題に対する新しいアプローチを提案する。
奥行きスコアを直接回帰する代わりに、この問題を深さを超える確率分布の推定として定式化する。
本モデルでは,より近い画素の深さよりも近い画素の深さの確率を高めるために,新たなランキング損失である分布損失を提案する。
論文 参考訳(メタデータ) (2020-10-14T13:47:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。