論文の概要: Object Pose Estimation with Statistical Guarantees: Conformal Keypoint
Detection and Geometric Uncertainty Propagation
- arxiv url: http://arxiv.org/abs/2303.12246v1
- Date: Wed, 22 Mar 2023 00:55:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 15:48:09.488304
- Title: Object Pose Estimation with Statistical Guarantees: Conformal Keypoint
Detection and Geometric Uncertainty Propagation
- Title(参考訳): 統計的保証による物体ポーズ推定:共形鍵点検出と幾何学的不確かさ伝播
- Authors: Heng Yang, Marco Pavone
- Abstract要約: 2段階のオブジェクトポーズ推定は、まず画像上のセマンティックキーポイントを検出し、再投影誤差を最小限にして6Dポーズを推定する。
既存の手法は、推定の不確実性の証明可能な保証を提供しない。
我々は平均ポーズを計算し、最悪のエラー境界を適用するためにRANdom SA averaGing (RANSAG) を開発した。
- 参考スコア(独自算出の注目度): 38.54398084892807
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The two-stage object pose estimation paradigm first detects semantic
keypoints on the image and then estimates the 6D pose by minimizing
reprojection errors. Despite performing well on standard benchmarks, existing
techniques offer no provable guarantees on the quality and uncertainty of the
estimation. In this paper, we inject two fundamental changes, namely conformal
keypoint detection and geometric uncertainty propagation, into the two-stage
paradigm and propose the first pose estimator that endows an estimation with
provable and computable worst-case error bounds. On one hand, conformal
keypoint detection applies the statistical machinery of inductive conformal
prediction to convert heuristic keypoint detections into circular or elliptical
prediction sets that cover the groundtruth keypoints with a user-specified
marginal probability (e.g., 90%). Geometric uncertainty propagation, on the
other, propagates the geometric constraints on the keypoints to the 6D object
pose, leading to a Pose UnceRtainty SEt (PURSE) that guarantees coverage of the
groundtruth pose with the same probability. The PURSE, however, is a nonconvex
set that does not directly lead to estimated poses and uncertainties.
Therefore, we develop RANdom SAmple averaGing (RANSAG) to compute an average
pose and apply semidefinite relaxation to upper bound the worst-case errors
between the average pose and the groundtruth. On the LineMOD Occlusion dataset
we demonstrate: (i) the PURSE covers the groundtruth with valid probabilities;
(ii) the worst-case error bounds provide correct uncertainty quantification;
and (iii) the average pose achieves better or similar accuracy as
representative methods based on sparse keypoints.
- Abstract(参考訳): 2段階のオブジェクトポーズ推定パラダイムは、まず画像上のセマンティックキーポイントを検出し、再投影誤差を最小限にして6Dポーズを推定する。
標準ベンチマークでよく機能するにもかかわらず、既存の手法は評価の品質と不確実性に関する証明可能な保証を提供していない。
本稿では、2段階のパラダイムに2つの基本的変化、すなわち共形キーポイント検出と幾何不確実性伝播を注入し、計算可能な最悪のエラー境界を持つ推定値を与える最初のポーズ推定器を提案する。
一方、共形キーポイント検出は、帰納的共形予測の統計機構を適用して、ヒューリスティックなキーポイント検出を、ユーザーが特定した限界確率(例えば90%)で基底キーポイントをカバーする円形または楕円的な予測セットに変換する。
一方、幾何学的不確実性伝播は、キーポイント上の幾何学的制約を6次元オブジェクトのポーズに伝播させ、同じ確率で基底のポーズのカバレッジを保証するPose UnceRtainty SEt (PURSE) へと導く。
しかし、PURSEは非凸集合であり、推定されたポーズや不確実性に直接導かない。
そこで, 平均ポーズを計算し, 平均ポーズと基底の最悪のエラーを上界に半定緩和するrandom SAmple averaGing (RANSAG) を開発した。
LineMOD Occlusion データセットについて
i) PURSEは,その基盤を有効な確率で覆っている。
(ii)最悪のエラー境界は、正確な不確実性定量化を提供する。
(iii)平均ポーズは、スパースキーポイントに基づく代表方法とよく似た精度を達成する。
関連論文リスト
- Distributional Shift-Aware Off-Policy Interval Estimation: A Unified
Error Quantification Framework [8.572441599469597]
本研究では、無限水平マルコフ決定過程の文脈における高信頼オフ政治評価について検討する。
目的は、未知の行動ポリシーから事前に収集されたオフラインデータのみを用いて、対象の政策値に対する信頼区間(CI)を確立することである。
提案アルゴリズムは, 非線形関数近似設定においても, サンプル効率, 誤差ローバスト, 既知収束性を示す。
論文 参考訳(メタデータ) (2023-09-23T06:35:44Z) - Discretization-Induced Dirichlet Posterior for Robust Uncertainty
Quantification on Regression [17.49026509916207]
不確実性定量化は、現実世界のアプリケーションにディープニューラルネットワーク(DNN)をデプロイするために重要である。
視覚回帰タスクでは、現在のAuxUE設計は、主にアレタリック不確実性推定に採用されている。
回帰タスクにおけるより堅牢な不確実性定量化のための一般化されたAuxUEスキームを提案する。
論文 参考訳(メタデータ) (2023-08-17T15:54:11Z) - Toward Reliable Human Pose Forecasting with Uncertainty [51.628234388046195]
我々は、複数のモデルを含む人間のポーズ予測のためのオープンソースのライブラリを開発し、複数のデータセットをサポートする。
我々は、パフォーマンスを高め、より良い信頼をもたらすために、問題の2つの不確実性を考案する。
論文 参考訳(メタデータ) (2023-04-13T17:56:08Z) - Ki-Pode: Keypoint-based Implicit Pose Distribution Estimation of Rigid
Objects [1.209625228546081]
本稿では,新しいポーズ分布推定法を提案する。
オブジェクトのポーズ上の確率分布の暗黙的な定式化は、キーポイントの集合としてのオブジェクトの中間表現から導かれる。
本手法は,YCB-VおよびT-LESSデータセット上での回転分布推定のタスクに基づいて評価されている。
論文 参考訳(メタデータ) (2022-09-20T11:59:05Z) - Uncertainty-Aware Adaptation for Self-Supervised 3D Human Pose
Estimation [70.32536356351706]
本稿では、2つの出力ヘッドを2つの異なる構成にサブスクライブする共通のディープネットワークバックボーンを構成するMPP-Netを紹介する。
ポーズと関節のレベルで予測の不確実性を定量化するための適切な尺度を導出する。
本稿では,提案手法の総合評価を行い,ベンチマークデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2022-03-29T07:14:58Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Estimating and Exploiting the Aleatoric Uncertainty in Surface Normal
Estimation [25.003116148843525]
単一画像からの表面正規化は3次元シーン理解において重要な課題である。
本稿では,既存手法で共有されている2つの制約,すなわち,アレータリック不確実性を推定できないこと,および予測における詳細性の欠如に対処する。
本稿では,推定不確実性に基づいて,画素単位のパーセプトロンをサンプルとするデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-20T23:30:04Z) - Uncertainty-Aware Deep Calibrated Salient Object Detection [74.58153220370527]
既存のディープニューラルネットワークに基づくサルエントオブジェクト検出(SOD)手法は主に高いネットワーク精度の追求に重点を置いている。
これらの手法は、信頼不均衡問題として知られるネットワーク精度と予測信頼の間のギャップを見落としている。
我々は,不確実性を考慮した深部SODネットワークを導入し,深部SODネットワークの過信を防止するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2020-12-10T23:28:36Z) - Labels Are Not Perfect: Improving Probabilistic Object Detection via
Label Uncertainty [12.531126969367774]
これまでに提案した手法を用いて,真理境界ボックスパラメータに固有の不確かさを推定する。
KITTIデータセットを用いた実験結果から,本手法はベースラインモデルとモデルの両方を,平均精度で最大3.6%の精度で上回ることがわかった。
論文 参考訳(メタデータ) (2020-08-10T14:49:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。