論文の概要: Structure-Aware Correspondence Learning for Relative Pose Estimation
- arxiv url: http://arxiv.org/abs/2503.18671v1
- Date: Mon, 24 Mar 2025 13:43:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 16:32:17.280615
- Title: Structure-Aware Correspondence Learning for Relative Pose Estimation
- Title(参考訳): 相対関数推定のための構造認識対応学習
- Authors: Yihan Chen, Wenfei Yang, Huan Ren, Shifeng Zhang, Tianzhu Zhang, Feng Wu,
- Abstract要約: 相対的なポーズ推定は、オブジェクトに依存しないポーズ推定を達成するための有望な方法を提供する。
既存の3D対応方式は、可視領域における小さな重複と、可視領域に対する信頼できない特徴推定に悩まされている。
本稿では,2つの鍵モジュールからなる相対詩推定のための構造認識対応学習手法を提案する。
- 参考スコア(独自算出の注目度): 65.44234975976451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Relative pose estimation provides a promising way for achieving object-agnostic pose estimation. Despite the success of existing 3D correspondence-based methods, the reliance on explicit feature matching suffers from small overlaps in visible regions and unreliable feature estimation for invisible regions. Inspired by humans' ability to assemble two object parts that have small or no overlapping regions by considering object structure, we propose a novel Structure-Aware Correspondence Learning method for Relative Pose Estimation, which consists of two key modules. First, a structure-aware keypoint extraction module is designed to locate a set of kepoints that can represent the structure of objects with different shapes and appearance, under the guidance of a keypoint based image reconstruction loss. Second, a structure-aware correspondence estimation module is designed to model the intra-image and inter-image relationships between keypoints to extract structure-aware features for correspondence estimation. By jointly leveraging these two modules, the proposed method can naturally estimate 3D-3D correspondences for unseen objects without explicit feature matching for precise relative pose estimation. Experimental results on the CO3D, Objaverse and LineMOD datasets demonstrate that the proposed method significantly outperforms prior methods, i.e., with 5.7{\deg}reduction in mean angular error on the CO3D dataset.
- Abstract(参考訳): 相対的なポーズ推定は、オブジェクトに依存しないポーズ推定を達成するための有望な方法を提供する。
既存の3D対応方式の成功にもかかわらず、明示的な特徴マッチングへの依存は、可視領域における小さな重複と、可視領域における信頼できない特徴推定に悩まされている。
そこで本研究では,2つの重要なモジュールから構成される相対詩推定のための構造認識対応学習手法を提案する。
まず、キーポイントに基づく画像再構成損失のガイダンスに基づいて、異なる形状と外観の物体の構造を表現できる一連のケポイントを見つけるように設計された構造対応キーポイント抽出モジュールを設計する。
第二に、構造認識対応対応推定モジュールは、キーポイント間の画像内および画像間関係をモデル化し、構造認識特徴を抽出して対応推定を行う。
これら2つのモジュールを協調的に利用することにより,提案手法は,相対的ポーズ推定のための特徴マッチングを明示することなく,自然に未知の物体の3D-3D対応を推定することができる。
CO3D, Objaverse および LineMOD データセットの実験結果から,提案手法は従来の手法,すなわち CO3D データセットの平均角誤差5.7{\deg} を著しく上回ることを示した。
関連論文リスト
- Detection Based Part-level Articulated Object Reconstruction from Single RGBD Image [52.11275397911693]
本稿では,1枚のRGBD画像から複数の人工関節オブジェクトを再構成する,エンドツーエンドで訓練可能なクロスカテゴリ手法を提案する。
私たちは、あらかじめ定義された部分数で人工的なオブジェクトに焦点をあて、インスタンスレベルの潜在空間を学習することに依存する以前の作業から離れています。
提案手法は, 従来の作業では処理できない様々な構成された複数インスタンスの再構築に成功し, 形状再構成や運動学推定において, 先行の作業よりも優れていた。
論文 参考訳(メタデータ) (2025-04-04T05:08:04Z) - Learning Shape-Independent Transformation via Spherical Representations for Category-Level Object Pose Estimation [42.48001557547222]
カテゴリーレベルのオブジェクトポーズ推定は、特定のカテゴリにおける新しいオブジェクトのポーズとサイズを決定することを目的としている。
既存の対応に基づくアプローチは、通常、原始的な観測点と正規化されたオブジェクト座標の間の対応を確立するために点ベースの表現を採用する。
SpherePoseと呼ばれる新しいアーキテクチャを導入し、3つのコア設計を通して正確な対応予測を行う。
論文 参考訳(メタデータ) (2025-03-18T05:43:42Z) - Correspondence-Free Pose Estimation with Patterns: A Unified Approach for Multi-Dimensional Vision [10.274601503572715]
新たな対応のないポーズ推定法とその実用的なアルゴリズムを提案する。
考慮された点集合をパターンとすることで、これらのパターンを記述するために使われる特徴関数を導入し、最適化に十分な数の方程式を確立する。
提案手法は視点投影などの非線形変換に適用可能であり,3次元から3次元,3次元から2次元,2次元から2次元までの様々なポーズ推定を行うことができる。
論文 参考訳(メタデータ) (2025-02-26T14:38:44Z) - UNOPose: Unseen Object Pose Estimation with an Unposed RGB-D Reference Image [86.7128543480229]
見えないオブジェクトのポーズ推定方法はCADモデルや複数の参照ビューに依存することが多い。
参照取得を簡略化するために,未提示のRGB-D参照画像を用いて未確認オブジェクトのポーズを推定することを目的とする。
単参照型オブジェクトポーズ推定のための新しいアプローチとベンチマークをUNOPoseと呼ぶ。
論文 参考訳(メタデータ) (2024-11-25T05:36:00Z) - FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects [55.77542145604758]
FoundationPoseは、6Dオブジェクトのポーズ推定と追跡のための統合基盤モデルである。
我々のアプローチは、微調整なしで、テスト時に新しいオブジェクトに即座に適用できる。
論文 参考訳(メタデータ) (2023-12-13T18:28:09Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - Self-Supervised Category-Level Articulated Object Pose Estimation with
Part-Level SE(3) Equivariance [33.10167928198986]
カテゴリーレベルの調音オブジェクトポーズ推定は、未知の調音オブジェクトの調音オブジェクトポーズの階層を既知のカテゴリから推定することを目的としている。
我々は,人間ラベルを使わずにこの問題を解決する,新たな自己管理戦略を提案する。
論文 参考訳(メタデータ) (2023-02-28T03:02:11Z) - LocPoseNet: Robust Location Prior for Unseen Object Pose Estimation [69.70498875887611]
LocPoseNetは、見えないオブジェクトに先立って、ロバストにロケーションを学習することができる。
提案手法は,LINEMOD と GenMOP において,既存の作業よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-29T15:21:34Z) - DCL-Net: Deep Correspondence Learning Network for 6D Pose Estimation [43.963630959349885]
本稿では,DCL-Netとして短縮された直接6次元オブジェクトポーズ推定のためのディープ対応学習ネットワークを提案する。
DCL-Netは,YCB-Video,LineMOD,Oclussion-LineMODを含む3つのベンチマークデータセットにおいて,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:04:40Z) - What's in your hands? 3D Reconstruction of Generic Objects in Hands [49.12461675219253]
我々の研究は、単一のRGB画像からハンドヘルドオブジェクトを再構築することを目的としている。
通常、既知の3Dテンプレートを仮定し、問題を3Dポーズ推定に還元する以前の作業とは対照的に、我々の作業は3Dテンプレートを知らずに汎用的なハンドヘルドオブジェクトを再構成する。
論文 参考訳(メタデータ) (2022-04-14T17:59:02Z) - Category Level Object Pose Estimation via Neural Analysis-by-Synthesis [64.14028598360741]
本稿では、勾配に基づくフィッティング法とパラメトリックニューラルネットワーク合成モジュールを組み合わせる。
画像合成ネットワークは、ポーズ設定空間を効率的に分散するように設計されている。
本研究では,2次元画像のみから高精度に物体の向きを復元できることを実験的に示す。
論文 参考訳(メタデータ) (2020-08-18T20:30:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。