論文の概要: UA-Pose: Uncertainty-Aware 6D Object Pose Estimation and Online Object Completion with Partial References
- arxiv url: http://arxiv.org/abs/2506.07996v1
- Date: Mon, 09 Jun 2025 17:58:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:11.102119
- Title: UA-Pose: Uncertainty-Aware 6D Object Pose Estimation and Online Object Completion with Partial References
- Title(参考訳): UA-Pose:不確かさを意識した6Dオブジェクトポス推定と部分参照によるオンラインオブジェクト補完
- Authors: Ming-Feng Li, Xin Yang, Fu-En Wang, Hritam Basak, Yuyin Sun, Shreekant Gayaka, Min Sun, Cheng-Hao Kuo,
- Abstract要約: 6次元オブジェクトポーズ推定とオンラインオブジェクト補完のための不確実性を考慮したアプローチであるUA-Poseを提案する。
ロボットと人間の手によって操作されたYCBオブジェクトのRGBDシーケンスを含む,YCB-Video,YCBInEOAT,HO3Dデータセットについて評価を行った。
- 参考スコア(独自算出の注目度): 14.762839788171584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 6D object pose estimation has shown strong generalizability to novel objects. However, existing methods often require either a complete, well-reconstructed 3D model or numerous reference images that fully cover the object. Estimating 6D poses from partial references, which capture only fragments of an object's appearance and geometry, remains challenging. To address this, we propose UA-Pose, an uncertainty-aware approach for 6D object pose estimation and online object completion specifically designed for partial references. We assume access to either (1) a limited set of RGBD images with known poses or (2) a single 2D image. For the first case, we initialize a partial object 3D model based on the provided images and poses, while for the second, we use image-to-3D techniques to generate an initial object 3D model. Our method integrates uncertainty into the incomplete 3D model, distinguishing between seen and unseen regions. This uncertainty enables confidence assessment in pose estimation and guides an uncertainty-aware sampling strategy for online object completion, enhancing robustness in pose estimation accuracy and improving object completeness. We evaluate our method on the YCB-Video, YCBInEOAT, and HO3D datasets, including RGBD sequences of YCB objects manipulated by robots and human hands. Experimental results demonstrate significant performance improvements over existing methods, particularly when object observations are incomplete or partially captured. Project page: https://minfenli.github.io/UA-Pose/
- Abstract(参考訳): 6次元オブジェクトのポーズ推定は、新しいオブジェクトに対して強い一般化性を示している。
しかし、既存の手法では、完全に構築された3Dモデルか、オブジェクトを完全にカバーする多数の参照イメージを必要とすることが多い。
オブジェクトの外観と幾何学の断片のみをキャプチャする部分参照から6Dのポーズを推定することは、依然として困難である。
そこで本研究では,6次元オブジェクトポーズ推定のための不確実性を考慮したアプローチであるUA-Poseを提案し,部分参照用に特別に設計されたオンラインオブジェクト補完を提案する。
我々は,(1)未知のポーズを持つ限られたRGBD画像,または(2)単一の2D画像のいずれかにアクセスすると仮定する。
第1のケースでは、提供された画像とポーズに基づいて部分オブジェクト3Dモデルを初期化し、第2のケースでは、画像から3Dまでを使って初期オブジェクト3Dモデルを生成する。
提案手法は不完全な3次元モデルに不確実性を統合し, 見えない領域と見えない領域を区別する。
この不確実性は、ポーズ推定における信頼度評価を可能にし、オンラインオブジェクト完了のための不確実性認識サンプリング戦略を導出し、ポーズ推定精度の堅牢性を高め、オブジェクト完全性を向上させる。
ロボットと人間の手によって操作されたYCBオブジェクトのRGBDシーケンスを含む,YCB-Video,YCBInEOAT,HO3Dデータセットについて評価を行った。
実験により, 既存の手法に比べて, 物体の観察が不完全であったり, 部分的に捕獲されたりした場合に, 顕著な性能向上が認められた。
プロジェクトページ: https://minfenli.github.io/UA-Pose/
関連論文リスト
- Any6D: Model-free 6D Pose Estimation of Novel Objects [76.30057578269668]
我々は,6次元オブジェクトのポーズ推定のためのモデルフリーフレームワークであるAny6Dを紹介する。
新たなシーンでは、未知の物体の6Dポーズと大きさを推定するために、1枚のRGB-Dアンカー画像しか必要としない。
提案手法を5つの挑戦的データセットで評価する。
論文 参考訳(メタデータ) (2025-03-24T13:46:21Z) - 3D-Aware Hypothesis & Verification for Generalizable Relative Object
Pose Estimation [69.73691477825079]
一般化可能なオブジェクトポーズ推定の問題に対処する新しい仮説検証フレームワークを提案する。
信頼性を計測するために,2つの入力画像から学習した3次元オブジェクト表現に3次元変換を明示的に適用する3D認識検証を導入する。
論文 参考訳(メタデータ) (2023-10-05T13:34:07Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - NeRF-Pose: A First-Reconstruct-Then-Regress Approach for
Weakly-supervised 6D Object Pose Estimation [44.42449011619408]
トレーニング中に2次元オブジェクトセグメンテーションと既知の相対カメラポーズしか必要としないNeRF-Poseという,弱教師付き再構築型パイプラインを提案する。
予測応答から安定かつ正確なポーズを推定するために、NeRF対応RAN+SACアルゴリズムを用いる。
LineMod-Occlusion 実験の結果,提案手法は6次元ポーズ推定法と比較して最先端の精度を持つことがわかった。
論文 参考訳(メタデータ) (2022-03-09T15:28:02Z) - Pose Estimation of Specific Rigid Objects [0.7931904787652707]
本稿では,RGBまたはRGB-D入力画像から剛体物体の6次元ポーズを推定する問題に対処する。
この問題は、ロボット操作、拡張現実、自律運転など、多くの応用分野において非常に重要である。
論文 参考訳(メタデータ) (2021-12-30T14:36:47Z) - CosyPose: Consistent multi-view multi-object 6D pose estimation [48.097599674329004]
単視点単体6次元ポーズ推定法を提案し、6次元オブジェクトのポーズ仮説を生成する。
第2に、異なる入力画像間で個々の6次元オブジェクトのポーズをマッチングするロバストな手法を開発する。
第3に、複数のオブジェクト仮説とそれらの対応性を考慮したグローバルなシーン改善手法を開発した。
論文 参考訳(メタデータ) (2020-08-19T14:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。