論文の概要: GDR-Net: Geometry-Guided Direct Regression Network for Monocular 6D
Object Pose Estimation
- arxiv url: http://arxiv.org/abs/2102.12145v1
- Date: Wed, 24 Feb 2021 09:11:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-26 11:02:19.444014
- Title: GDR-Net: Geometry-Guided Direct Regression Network for Monocular 6D
Object Pose Estimation
- Title(参考訳): GDR-Net:単眼6Dオブジェクトポース推定のためのジオメトリ誘導直接回帰ネットワーク
- Authors: Gu Wang, Fabian Manhardt, Federico Tombari, Xiangyang Ji
- Abstract要約: 単一のRGB画像からの6次元ポーズ推定はコンピュータビジョンの基本課題である。
GDR-Net(Geometry-Guided Direct Regression Network)を用いて6Dポーズをエンドツーエンドで学習する。
提案手法は, LM, LM-O, YCB-Vデータセットの最先端手法よりも優れている。
- 参考スコア(独自算出の注目度): 71.83992173720311
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 6D pose estimation from a single RGB image is a fundamental task in computer
vision. The current top-performing deep learning-based methods rely on an
indirect strategy, i.e., first establishing 2D-3D correspondences between the
coordinates in the image plane and object coordinate system, and then applying
a variant of the P$n$P/RANSAC algorithm. However, this two-stage pipeline is
not end-to-end trainable, thus is hard to be employed for many tasks requiring
differentiable poses. On the other hand, methods based on direct regression are
currently inferior to geometry-based methods. In this work, we perform an
in-depth investigation on both direct and indirect methods, and propose a
simple yet effective Geometry-guided Direct Regression Network (GDR-Net) to
learn the 6D pose in an end-to-end manner from dense correspondence-based
intermediate geometric representations. Extensive experiments show that our
approach remarkably outperforms state-of-the-art methods on LM, LM-O and YCB-V
datasets. The code will be available at https://git.io/GDR-Net.
- Abstract(参考訳): 単一のRGB画像からの6次元ポーズ推定はコンピュータビジョンの基本課題である。
現在のトップパフォーマンスのディープラーニングベースの手法は、まず画像平面とオブジェクト座標系の座標間の2D-3D対応を確立し、次にP$n$P/RANSACアルゴリズムの変種を適用するという間接戦略に依存している。
しかし、この2段階のパイプラインはエンドツーエンドのトレーニングができないため、異なるポーズを必要とする多くのタスクに使用するのは難しい。
一方,直接回帰に基づく手法は,現在,幾何学的手法に劣っている。
本研究では,直接法と間接法の両方について詳細な調査を行い,高密度な対応に基づく中間幾何表現から6次元ポーズをエンドツーエンドに学習する簡易かつ効果的な幾何誘導型直接回帰ネットワーク(GDR-Net)を提案する。
広範な実験により, LM, LM-O, YCB-Vデータセットにおいて, 本手法が最先端の手法を著しく上回っていることが示された。
コードはhttps://git.io/GDR-Netで入手できる。
関連論文リスト
- Towards Human-Level 3D Relative Pose Estimation: Generalizable, Training-Free, with Single Reference [62.99706119370521]
人間は、単一のクエリ参照イメージペアのみを与えられたラベル/トレーニングなしで、目に見えないオブジェクトの相対的なポーズを容易に推論することができる。
そこで,本研究では,RGB-D参照から2.5D形状のRGB-D参照,オフザシェルフ微分可能なRGB-D参照,DINOv2のような事前学習モデルからのセマンティックキューを用いた3D一般化可能な相対ポーズ推定手法を提案する。
論文 参考訳(メタデータ) (2024-06-26T16:01:10Z) - RDPN6D: Residual-based Dense Point-wise Network for 6Dof Object Pose Estimation Based on RGB-D Images [13.051302134031808]
単一のRGB-D画像を用いてオブジェクトの6DoFポーズを計算する新しい手法を提案する。
オブジェクトのポーズを直接予測する既存の手法や、ポーズ回復のためのスパースキーポイントに依存する既存の手法とは異なり、我々のアプローチは密度の高い対応を使ってこの課題に対処する。
論文 参考訳(メタデータ) (2024-05-14T10:10:45Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - Pseudo Flow Consistency for Self-Supervised 6D Object Pose Estimation [14.469317161361202]
補助情報なしで純粋なRGB画像で訓練できる6次元オブジェクトポーズ推定法を提案する。
提案手法を3つの挑戦的データセット上で評価し,最先端の自己管理手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-19T13:52:18Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - DGECN: A Depth-Guided Edge Convolutional Network for End-to-End 6D Pose
Estimation [19.303780745324502]
6次元ポーズ推定のためのDGECN(Depth-Guided Edge Conal Network)を提案する。
そこで我々は,推定深度情報の利点を生かして,対応抽出法と擬似微分可能なRANSACアルゴリズムの両方を幾何学情報で導出する。
実験により,提案するネットワークは,有効性と効率の両面で,現在の作業より優れていることが示された。
論文 参考訳(メタデータ) (2022-04-21T09:19:50Z) - 6D Rotation Representation For Unconstrained Head Pose Estimation [2.1485350418225244]
本研究は, 基底真理データに対する回転行列形式を導入して, あいまいな回転ラベルの問題に対処する。
このようにして、提案手法は、ポーズ予測を狭角に制限する従来のアプローチとは正反対に、全回転の外観を学習することができる。
AFLW2000およびBIWIデータセットを用いた実験により,提案手法が他の最先端手法よりも最大20%高い性能を示した。
論文 参考訳(メタデータ) (2022-02-25T08:41:13Z) - L6DNet: Light 6 DoF Network for Robust and Precise Object Pose
Estimation with Small Datasets [0.0]
1枚のRGB-D画像から6つのDoFオブジェクトのポーズ推定を行う新しい手法を提案する。
データ駆動と幾何学という2段階のハイブリッドパイプラインを採用しています。
私たちのアプローチは最先端の手法よりも堅牢で正確です。
論文 参考訳(メタデータ) (2020-02-03T17:41:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。