論文の概要: W-PoseNet: Dense Correspondence Regularized Pixel Pair Pose Regression
- arxiv url: http://arxiv.org/abs/1912.11888v2
- Date: Thu, 4 Mar 2021 09:22:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-10 08:10:22.960077
- Title: W-PoseNet: Dense Correspondence Regularized Pixel Pair Pose Regression
- Title(参考訳): w-posenet: 密度対応正規化画素対ポーズ回帰
- Authors: Zelin Xu, Ke Chen and Kui Jia
- Abstract要約: 本稿では,新しいポーズ推定アルゴリズムW-PoseNetを提案する。
入力データから6Dポーズ、モデル空間内の3D座標に密に回帰する。
YCB-Video と LineMOD のベンチマーク実験の結果,提案した W-PoseNet は一貫して優れた性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 34.8793946023412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Solving 6D pose estimation is non-trivial to cope with intrinsic appearance
and shape variation and severe inter-object occlusion, and is made more
challenging in light of extrinsic large illumination changes and low quality of
the acquired data under an uncontrolled environment. This paper introduces a
novel pose estimation algorithm W-PoseNet, which densely regresses from input
data to 6D pose and also 3D coordinates in model space. In other words, local
features learned for pose regression in our deep network are regularized by
explicitly learning pixel-wise correspondence mapping onto 3D pose-sensitive
coordinates as an auxiliary task. Moreover, a sparse pair combination of
pixel-wise features and soft voting on pixel-pair pose predictions are designed
to improve robustness to inconsistent and sparse local features. Experiment
results on the popular YCB-Video and LineMOD benchmarks show that the proposed
W-PoseNet consistently achieves superior performance to the state-of-the-art
algorithms.
- Abstract(参考訳): 6dポーズ推定の解決は,本質的外観や形状のばらつき,物体間咬合の重篤さに対処し,非制御環境下で取得したデータの大幅な照明変化や低品質化に照らしてより困難になる。
本稿では,入力データから6次元ポーズ,モデル空間における3次元座標に強く回帰する新しいポーズ推定アルゴリズムW-PoseNetを提案する。
言い換えれば、深層ネットワークにおけるポーズ回帰を学習した局所的特徴は、3次元ポーズ感応座標への画素ワイド対応マッピングを補助タスクとして明示的に学習することで正規化される。
さらに,不整合とスパースな局所的特徴に対するロバスト性を改善するため,画素単位の特徴のスパース対と画素対ポーズ予測におけるソフト投票の組み合わせを考案した。
人気の高いYCB-VideoとLineMODベンチマークの実験結果から、提案したW-PoseNetは最先端のアルゴリズムよりも一貫して優れた性能を発揮することが示された。
関連論文リスト
- RelPose++: Recovering 6D Poses from Sparse-view Observations [66.6922660401558]
スパースビュー画像集合(2-8画像)から6次元カメラポーズを推定する作業に対処する。
我々は,画像対上の相対回転よりも分布を推定するネットワークを学習するRelPoseフレームワークを構築した。
最終システムは,先行技術よりも6次元ポーズ予測を大幅に改善する。
論文 参考訳(メタデータ) (2023-05-08T17:59:58Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - Depth-based 6DoF Object Pose Estimation using Swin Transformer [1.14219428942199]
オブジェクトの6Dポーズを正確に推定することは、ロボットの把握、自律運転、拡張現実など、多くのアプリケーションにとって不可欠である。
深度画像からの幾何情報のみを用いて正確な6次元ポーズ推定を行うSwinDePoseという新しいフレームワークを提案する。
LineModおよびOcclusion LineModデータセットの実験において、SwinDePoseは深度画像を用いた6Dオブジェクトのポーズ推定のための既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-03-03T18:25:07Z) - BiCo-Net: Regress Globally, Match Locally for Robust 6D Pose Estimation [32.49091033895255]
双方向対応マッピングネットワーク(BiCo-Net)は、典型的なポーズ回帰によって導かれる点雲を生成する。
局所的マッチングと直接ポーズ回帰による冗長なポーズ予測のアンサンブルは、ノイズ観測に対する最終的なポーズ出力をさらに洗練する。
論文 参考訳(メタデータ) (2022-05-07T03:37:33Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - ZebraPose: Coarse to Fine Surface Encoding for 6DoF Object Pose
Estimation [76.31125154523056]
物体表面を高密度に表現できる離散ディスクリプタを提案する。
また,微粒化対応予測が可能な微粒化学習戦略を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:24Z) - SO-Pose: Exploiting Self-Occlusion for Direct 6D Pose Estimation [98.83762558394345]
SO-Poseは、オブジェクトの6自由度(6DoF)をすべて、単一のRGBイメージから散らばった環境でポーズさせるフレームワークである。
本稿では,3次元オブジェクトの2層表現を確立するために,自己閉塞に関する新たな推論を導入する。
対応性,自己閉塞性,6次元ポーズを整列する層間合成により,精度とロバスト性をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-08-18T19:49:29Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z) - 3D Point-to-Keypoint Voting Network for 6D Pose Estimation [8.801404171357916]
3次元キーポイントの空間構造特性に基づくRGB-Dデータから6次元ポーズ推定のためのフレームワークを提案する。
提案手法は, LINEMOD と OCCLUSION LINEMOD の2つのベンチマークデータセットで検証する。
論文 参考訳(メタデータ) (2020-12-22T11:43:15Z) - L6DNet: Light 6 DoF Network for Robust and Precise Object Pose
Estimation with Small Datasets [0.0]
1枚のRGB-D画像から6つのDoFオブジェクトのポーズ推定を行う新しい手法を提案する。
データ駆動と幾何学という2段階のハイブリッドパイプラインを採用しています。
私たちのアプローチは最先端の手法よりも堅牢で正確です。
論文 参考訳(メタデータ) (2020-02-03T17:41:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。