論文の概要: MaskVal: Simple but Effective Uncertainty Quantification for 6D Pose Estimation
- arxiv url: http://arxiv.org/abs/2409.03556v1
- Date: Thu, 5 Sep 2024 14:17:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 20:15:17.190841
- Title: MaskVal: Simple but Effective Uncertainty Quantification for 6D Pose Estimation
- Title(参考訳): MaskVal: 単純だが効果的な不確かさの定量化
- Authors: Philipp Quentin, Daniel Goehring,
- Abstract要約: 6次元ポーズ推定において,MaskValと呼ぶ簡易かつ効果的な不確実性定量化について検討する。
その単純さにもかかわらず、MaskValは、データセットとロボットのセットアップの両方で最先端のアンサンブル法を大幅に上回っている。
我々は,MaskValを用いて,最先端の6Dポーズ推定器の性能を安全かつ信頼性の高い操作に向けて大幅に改善したことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For the use of 6D pose estimation in robotic applications, reliable poses are of utmost importance to ensure a safe, reliable and predictable operational performance. Despite these requirements, state-of-the-art 6D pose estimators often do not provide any uncertainty quantification for their pose estimates at all, or if they do, it has been shown that the uncertainty provided is only weakly correlated with the actual true error. To address this issue, we investigate a simple but effective uncertainty quantification, that we call MaskVal, which compares the pose estimates with their corresponding instance segmentations by rendering and does not require any modification of the pose estimator itself. Despite its simplicity, MaskVal significantly outperforms a state-of-the-art ensemble method on both a dataset and a robotic setup. We show that by using MaskVal, the performance of a state-of-the-art 6D pose estimator is significantly improved towards a safe and reliable operation. In addition, we propose a new and specific approach to compare and evaluate uncertainty quantification methods for 6D pose estimation in the context of robotic manipulation.
- Abstract(参考訳): ロボットアプリケーションで6Dポーズを推定するためには、安全で信頼性があり、予測可能な運用性能を確保するために、信頼性の高いポーズが最も重要である。
これらの要求にもかかわらず、最先端の6Dポーズ推定器は、ポーズ推定について全く不確実な定量化を提供していない場合や、それらがそうである場合、与えられた不確実性は実際の真の誤りと弱い相関しか持たないことが示されている。
この問題に対処するため,我々はMaskValと呼ばれる簡易かつ効果的な不確実性定量化について検討する。これは,ポーズ推定と対応するインスタンスセグメンテーションをレンダリングによって比較し,ポーズ推定器自体の変更を必要としない。
その単純さにもかかわらず、MaskValは、データセットとロボットのセットアップの両方で最先端のアンサンブル法を大幅に上回っている。
我々は,MaskValを用いて,最先端の6Dポーズ推定器の性能を安全かつ信頼性の高い操作に向けて大幅に改善したことを示す。
さらに,ロボット操作の文脈における6次元ポーズ推定のための不確実性定量化手法の比較と評価を行うための,新しい特異なアプローチを提案する。
関連論文リスト
- Calib3D: Calibrating Model Preferences for Reliable 3D Scene Understanding [55.32861154245772]
Calib3Dは3Dシーン理解モデルの信頼性をベンチマークし精査する先駆的な試みである。
10種類の3Dデータセットにわたる28の最先端モデルを評価した。
本稿では,3次元モデルのキャリブレーション向上を目的とした,深度対応のスケーリング手法であるDeptSを紹介する。
論文 参考訳(メタデータ) (2024-03-25T17:59:59Z) - Uncertainty Quantification with Deep Ensembles for 6D Object Pose Estimation [4.2603120588176635]
深層アンサンブルを用いた多段6次元オブジェクトポーズ推定手法の不確かさを定量化する手法を提案する。
実装において、SurfEmbを代表として選択する。これは、最も優れた6Dオブジェクトのポーズ推定手法の1つである。
論文 参考訳(メタデータ) (2024-03-12T15:19:25Z) - PViT-6D: Overclocking Vision Transformers for 6D Pose Estimation with
Confidence-Level Prediction and Pose Tokens [0.0]
分類トークンのカスタマイズによる直接6次元ポーズ推定のための視覚変換器の機能について検討する。
また、ほとんどの6次元ポーズ推定フレームワークに簡単に組み込むことができる、ポーズの信頼度を決定するための簡単な方法も導入する。
論文 参考訳(メタデータ) (2023-11-29T10:27:56Z) - Learning to Estimate 6DoF Pose from Limited Data: A Few-Shot,
Generalizable Approach using RGB Images [60.0898989456276]
本稿では,数ショットの6DoFポーズ推定のためのCas6Dという新しいフレームワークを提案する。
極めて少数の設定で対象物検出の偽陽性に対処するために,本フレームワークでは,自己教師付き事前学習型ViTを用いて,ロバストな特徴表現を学習する。
LINEMODとGenMOPデータセットの実験結果は、Cas6Dが32ショット設定で最先端の手法を9.2%、精度3.8%(Proj-5)で上回ることを示した。
論文 参考訳(メタデータ) (2023-06-13T07:45:42Z) - Ambiguity-Aware Multi-Object Pose Optimization for Visually-Assisted
Robot Manipulation [17.440729138126162]
あいまいさを意識した6Dオブジェクトポーズ推定ネットワークPrimA6D++を汎用的不確実性予測手法として提案する。
提案手法は,T-LESS と YCB-Video のデータセットの性能向上を示す。
さらに,視覚支援ロボット操作のためのリアルタイムシーン認識機能を示す。
論文 参考訳(メタデータ) (2022-11-02T08:57:20Z) - Instance-specific 6-DoF Object Pose Estimation from Minimal Annotations [6.24717069374781]
本稿では,単一のRGB画像からオブジェクトの連続6-DoFポーズを推定するためのパイプラインを高速に訓練し,デプロイする方法を提案する。
キーとなるアイデアは、既知のカメラのポーズと剛体形状を利用して、大きなラベル付きデータセットの生成を部分的に自動化することだ。
データセットは十分なドメインランダム化とともに、セマンティックキーポイントを予測するためのディープニューラルネットワークのトレーニングを監督するために使用される。
論文 参考訳(メタデータ) (2022-07-27T03:00:28Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Occlusion-Aware Self-Supervised Monocular 6D Object Pose Estimation [88.8963330073454]
自己教師付き学習による新しい単眼6次元ポーズ推定手法を提案する。
ノイズの多い学生のトレーニングと差別化可能なレンダリングの現在の傾向を活用して、モデルをさらに自己監督する。
提案する自己超越法は,合成データに依存する他の方法よりも優れている。
論文 参考訳(メタデータ) (2022-03-19T15:12:06Z) - VIPose: Real-time Visual-Inertial 6D Object Pose Tracking [3.44942675405441]
本稿では,オブジェクトのポーズ追跡問題にリアルタイムに対処するために,VIPoseと呼ばれる新しいディープニューラルネットワーク(DNN)を提案する。
重要な貢献は、オブジェクトの相対的な6Dポーズを予測するために視覚的および慣性的特徴を融合する新しいDNNアーキテクチャの設計である。
このアプローチでは、最先端技術に匹敵する精度性能を示すが、リアルタイムであることにはさらなるメリットがある。
論文 参考訳(メタデータ) (2021-07-27T06:10:23Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - Self6D: Self-Supervised Monocular 6D Object Pose Estimation [114.18496727590481]
自己教師付き学習による単眼6次元ポーズ推定のアイデアを提案する。
ニューラルレンダリングの最近の進歩を活用して、注釈のない実RGB-Dデータのモデルをさらに自己監督する。
論文 参考訳(メタデータ) (2020-04-14T13:16:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。