論文の概要: Certifiable 3D Object Pose Estimation: Foundations, Learning Models, and
Self-Training
- arxiv url: http://arxiv.org/abs/2206.11215v4
- Date: Fri, 28 Apr 2023 19:47:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 19:57:30.490552
- Title: Certifiable 3D Object Pose Estimation: Foundations, Learning Models, and
Self-Training
- Title(参考訳): 認定された3Dオブジェクトポース推定:基礎,学習モデル,自己学習
- Authors: Rajat Talak, Lisa Peng, and Luca Carlone
- Abstract要約: 証明可能なオブジェクトのポーズ推定の問題を考えると、オブジェクトの部分的な点クラウドが与えられた場合、その目標は、その結果の見積もりに対して正当性を示す証明書を提供することである。
セマンティックキーポイントに基づくポーズ推定モデルであるC-3POを提案する。
- 参考スコア(独自算出の注目度): 23.802602957611676
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider a certifiable object pose estimation problem, where -- given a
partial point cloud of an object -- the goal is to not only estimate the object
pose, but also to provide a certificate of correctness for the resulting
estimate. Our first contribution is a general theory of certification for
end-to-end perception models. In particular, we introduce the notion of
$\zeta$-correctness, which bounds the distance between an estimate and the
ground truth. We show that $\zeta$-correctness can be assessed by implementing
two certificates: (i) a certificate of observable correctness, that asserts if
the model output is consistent with the input data and prior information, (ii)
a certificate of non-degeneracy, that asserts whether the input data is
sufficient to compute a unique estimate. Our second contribution is to apply
this theory and design a new learning-based certifiable pose estimator. We
propose C-3PO, a semantic-keypoint-based pose estimation model, augmented with
the two certificates, to solve the certifiable pose estimation problem. C-3PO
also includes a keypoint corrector, implemented as a differentiable
optimization layer, that can correct large detection errors (e.g. due to the
sim-to-real gap). Our third contribution is a novel self-supervised training
approach that uses our certificate of observable correctness to provide the
supervisory signal to C-3PO during training. In it, the model trains only on
the observably correct input-output pairs, in each training iteration. As
training progresses, we see that the observably correct input-output pairs
grow, eventually reaching near 100% in many cases. Our experiments show that
(i) standard semantic-keypoint-based methods outperform more recent
alternatives, (ii) C-3PO further improves performance and significantly
outperforms all the baselines, and (iii) C-3PO's certificates are able to
discern correct pose estimates.
- Abstract(参考訳): 我々は、証明可能なオブジェクトポーズ推定問題を考える。そこでは、オブジェクトの部分点クラウドが与えられた場合、目標は、オブジェクトポーズを推定するだけでなく、結果の見積もりに対する正確性証明書を提供することである。
最初の貢献は、エンドツーエンドの知覚モデルに対する認証の一般的な理論です。
特に、推定値と基底真理の間の距離を束縛する$\zeta$-correctnessという概念を導入する。
2つの証明書を実装することで、$\zeta$-correctnessを評価できることを示します。
(i) モデル出力が入力データ及び先行情報と一致しているか否かを主張する観測可能な正確性の証明書
二 入力データが一意の見積もりを計算するのに十分であるか否かを主張する非属性の証明書。
第2の貢献は、この理論を適用し、新しい学習に基づく証明可能なポーズ推定器を設計することである。
本稿では,2つの証明を付加した意味キーポイントに基づくポーズ推定モデルC-3POを提案する。
c-3poには、大きな検出エラー(例えばsim-to-realギャップのため)を修正可能な、差別化可能な最適化層として実装されたキーポイント補正器も含まれている。
第3の貢献は,観察可能な正確性の証明を用いてc-3poに監視信号を提供する,新しい自己監督訓練手法である。
モデルでは、各トレーニングイテレーションにおいて、観測可能な正しい入出力ペアのみをトレーニングする。
トレーニングが進むにつれて、観測可能な正確な入出力ペアが増加し、最終的には多くの場合100%近くに達する。
私たちの実験は
(i) 標準セマンティクス・キーポイントに基づく手法は、近年の代替案を上回っている。
(ii)C-3POは、さらに性能を改善し、全てのベースラインを著しく上回る。
三 C-3POの証明書は、正しいポーズ推定を識別することができる。
関連論文リスト
- Certifying Robustness of Learning-Based Keypoint Detection and Pose Estimation Methods [9.953693315812995]
この研究は、視覚に基づく2段階の6次元オブジェクトポーズ推定の堅牢性の証明に対処する。
中心となる考え方は、ローカルロバストネスの認定を、分類タスクのニューラルネットワーク検証に変換することである。
論文 参考訳(メタデータ) (2024-07-31T19:02:54Z) - Q-REG: End-to-End Trainable Point Cloud Registration with Surface
Curvature [81.25511385257344]
本稿では、リッチな幾何学的情報を用いて、単一の対応から剛性ポーズを推定する新しい解Q-REGを提案する。
Q-REGは、堅牢な推定を徹底的な探索として形式化し、エンドツーエンドのトレーニングを可能にする。
実験では、Q-REGは対応マッチング法に非依存であり、推論とエンドツーエンドトレーニングの両方で使用した場合に一貫した改善を提供する。
論文 参考訳(メタデータ) (2023-09-27T20:58:53Z) - A Correct-and-Certify Approach to Self-Supervise Object Pose Estimators
via Ensemble Self-Training [26.47895284071508]
現実世界のロボティクスアプリケーションは、さまざまなシナリオで確実に動作するオブジェクトのポーズ推定方法を要求する。
最初のコントリビューションは、深度情報を用いたポーズ推定を補正する堅牢な修正モジュールの開発です。
第2の貢献は、複数のポーズ推定器を自己教師型で同時に訓練するアンサンブル自己学習アプローチである。
論文 参考訳(メタデータ) (2023-02-12T23:02:03Z) - Selective classification using a robust meta-learning approach [28.460912135533988]
本稿では,補助ネットワークを用いて予測不確実性を捉えるインスタンス条件の再重み付け手法を提案する。
制御された実験において、このメタオブジェクトを通して様々な不確実性の概念を効果的に捉えていることを示す。
糖尿病網膜症では、最大3.4%/3.3%の精度でSOTAを上回り、選択的分類ではAUCが上昇する。
論文 参考訳(メタデータ) (2022-12-12T15:45:23Z) - CPPF++: Uncertainty-Aware Sim2Real Object Pose Estimation by Vote Aggregation [67.12857074801731]
そこで本研究では,シミュレートからリアルなポーズ推定のための新しい手法であるCPPF++を提案する。
投票衝突による課題に対処するため,投票の不確実性をモデル化する新たなアプローチを提案する。
ノイズの多いペアフィルタリング、オンラインアライメント最適化、機能アンサンブルなど、いくつかの革新的なモジュールを組み込んでいます。
論文 参考訳(メタデータ) (2022-11-24T03:27:00Z) - VL4Pose: Active Learning Through Out-Of-Distribution Detection For Pose
Estimation [79.50280069412847]
VL4Poseは、分布外検出によるアクティブな学習のための第一原理的アプローチである。
我々の解は、最大推定により訓練された単純なパラメトリックベイズネットワークを介してポーズをモデル化することを含む。
我々はMPII, LSP, ICVLの3つのデータセットに対して定性的かつ定量的な実験を行い, 人手ポーズ推定を行った。
論文 参考訳(メタデータ) (2022-10-12T09:03:55Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Dynamic Iterative Refinement for Efficient 3D Hand Pose Estimation [87.54604263202941]
本稿では,従来の推定値の修正に部分的レイヤを反復的に活用する,小さなディープニューラルネットワークを提案する。
学習したゲーティング基準を用いて、ウェイトシェアリングループから抜け出すかどうかを判断し、モデルにサンプルごとの適応を可能にする。
提案手法は,広く使用されているベンチマークの精度と効率の両面から,最先端の2D/3Dハンドポーズ推定手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-11T23:31:34Z) - Fast Uncertainty Quantification for Deep Object Pose Estimation [91.09217713805337]
深層学習に基づくオブジェクトポーズ推定は、しばしば信頼できない、自信過剰である。
本研究では,6-DoFオブジェクトのポーズ推定のための,シンプルで効率的かつプラグアンドプレイなUQ手法を提案する。
論文 参考訳(メタデータ) (2020-11-16T06:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。