論文の概要: HccePose(BF): Predicting Front & Back Surfaces to Construct Ultra-Dense 2D-3D Correspondences for Pose Estimation
- arxiv url: http://arxiv.org/abs/2510.10177v2
- Date: Tue, 14 Oct 2025 07:12:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 12:06:24.256293
- Title: HccePose(BF): Predicting Front & Back Surfaces to Construct Ultra-Dense 2D-3D Correspondences for Pose Estimation
- Title(参考訳): HccePose(BF):超高密度2D-3D対応モデルの構築のための前後表面の予測
- Authors: Yulin Wang, Mengting Hu, Hongli Li, Chen Luo,
- Abstract要約: 観測対象の推定では、ニューラルネットワークを使用して2D画像上の物体表面の密集した3D座標を予測する。
本研究は、ポーズ間の3次元座標を密集して、物体の前面と後面の両方を3次元座標で予測する。
その結果,提案手法は7つの古典的BOPコアデータセットより優れていることがわかった。
- 参考スコア(独自算出の注目度): 37.50046993538762
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In pose estimation for seen objects, a prevalent pipeline involves using neural networks to predict dense 3D coordinates of the object surface on 2D images, which are then used to establish dense 2D-3D correspondences. However, current methods primarily focus on more efficient encoding techniques to improve the precision of predicted 3D coordinates on the object's front surface, overlooking the potential benefits of incorporating the back surface and interior of the object. To better utilize the full surface and interior of the object, this study predicts 3D coordinates of both the object's front and back surfaces and densely samples 3D coordinates between them. This process creates ultra-dense 2D-3D correspondences, effectively enhancing pose estimation accuracy based on the Perspective-n-Point (PnP) algorithm. Additionally, we propose Hierarchical Continuous Coordinate Encoding (HCCE) to provide a more accurate and efficient representation of front and back surface coordinates. Experimental results show that, compared to existing state-of-the-art (SOTA) methods on the BOP website, the proposed approach outperforms across seven classic BOP core datasets. Code is available at https://github.com/WangYuLin-SEU/HCCEPose.
- Abstract(参考訳): 観測対象のポーズ推定では、ニューラルネットワークを用いて2D画像上の物体表面の密集した3D座標を予測し、2D-3D対応を確立する。
しかし、現在の手法は主に、物体の前面の予測された3次元座標の精度を向上させるためのより効率的な符号化技術に焦点を当てており、物体の裏面と内部を組み込むことの潜在的な利点を見越している。
物体の表面と内部をよりよく利用するために、物体の前面と背面の両方の3D座標と、それらの間の密集した3D座標を予測した。
このプロセスは、超高密度2D-3D対応を作成し、パースペクティブ-n-Point(PnP)アルゴリズムに基づくポーズ推定精度を効果的に向上させる。
さらに, 階層型連続コーディネート符号化 (HCCE) を提案し, 前面座標と後面座標のより正確かつ効率的な表現を提供する。
実験の結果,既存のBOP WebサイトにおけるSOTA(State-of-the-art)手法と比較して,提案手法は7つの古典的BOPコアデータセットよりも優れていることがわかった。
コードはhttps://github.com/WangYuLin-SEU/HCCEPoseで入手できる。
関連論文リスト
- NDC-Scene: Boost Monocular 3D Semantic Scene Completion in Normalized
Device Coordinates Space [77.6067460464962]
SSC(Monocular 3D Semantic Scene Completion)は、単一の画像から複雑なセマンティックスや幾何学的形状を予測し、3D入力を必要としないため、近年大きな注目を集めている。
我々は,3次元空間に投影された2次元特徴の特徴的曖昧さ,3次元畳み込みのPose Ambiguity,深さの異なる3次元畳み込みにおける不均衡など,現在の最先端手法におけるいくつかの重要な問題を明らかにする。
シーン補完ネットワーク(NDC-Scene)を考案し,2を直接拡張する。
論文 参考訳(メタデータ) (2023-09-26T02:09:52Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - Neural Correspondence Field for Object Pose Estimation [67.96767010122633]
1枚のRGB画像から3次元モデルで剛体物体の6DoFポーズを推定する手法を提案する。
入力画像の画素で3次元オブジェクト座標を予測する古典的対応法とは異なり,提案手法はカメラフラストラムでサンプリングされた3次元クエリポイントで3次元オブジェクト座標を予測する。
論文 参考訳(メタデータ) (2022-07-30T01:48:23Z) - GDRNPP: A Geometry-guided and Fully Learning-based Object Pose Estimator [51.89441403642665]
剛体物体の6次元ポーズ推定はコンピュータビジョンにおける長年の課題である。
近年、ディープラーニングの出現は、信頼できる6Dポーズを予測するための畳み込みニューラルネットワーク(CNN)の可能性を明らかにしている。
本稿では,完全学習型オブジェクトポーズ推定器を提案する。
論文 参考訳(メタデータ) (2021-02-24T09:11:31Z) - Joint Spatial-Temporal Optimization for Stereo 3D Object Tracking [34.40019455462043]
本研究では,空間時間最適化に基づくステレオ3次元物体追跡手法を提案する。
ネットワークから隣接画像上の対応する2Dバウンディングボックスを検出し,初期3Dバウンディングボックスを回帰する。
オブジェクトセントロイドに関連づけられた複雑なオブジェクトキューは、リージョンベースのネットワークを使用して予測される。
論文 参考訳(メタデータ) (2020-04-20T13:59:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。