論文の概要: DGECN: A Depth-Guided Edge Convolutional Network for End-to-End 6D Pose
Estimation
- arxiv url: http://arxiv.org/abs/2204.09983v1
- Date: Thu, 21 Apr 2022 09:19:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 13:53:58.616388
- Title: DGECN: A Depth-Guided Edge Convolutional Network for End-to-End 6D Pose
Estimation
- Title(参考訳): DGECN - エンド・ツー・エンド6次元空間推定のためのエッジ畳み込みネットワーク
- Authors: Tuo Cao, Fei Luo, Yanping Fu, Wenxiao Zhang, Shengjie Zheng, Chunxia
Xiao
- Abstract要約: 6次元ポーズ推定のためのDGECN(Depth-Guided Edge Conal Network)を提案する。
そこで我々は,推定深度情報の利点を生かして,対応抽出法と擬似微分可能なRANSACアルゴリズムの両方を幾何学情報で導出する。
実験により,提案するネットワークは,有効性と効率の両面で,現在の作業より優れていることが示された。
- 参考スコア(独自算出の注目度): 19.303780745324502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular 6D pose estimation is a fundamental task in computer vision.
Existing works often adopt a two-stage pipeline by establishing correspondences
and utilizing a RANSAC algorithm to calculate 6 degrees-of-freedom (6DoF) pose.
Recent works try to integrate differentiable RANSAC algorithms to achieve an
end-to-end 6D pose estimation. However, most of them hardly consider the
geometric features in 3D space, and ignore the topology cues when performing
differentiable RANSAC algorithms. To this end, we proposed a Depth-Guided Edge
Convolutional Network (DGECN) for 6D pose estimation task. We have made efforts
from the following three aspects: 1) We take advantages ofestimated depth
information to guide both the correspondences-extraction process and the
cascaded differentiable RANSAC algorithm with geometric information. 2)We
leverage the uncertainty ofthe estimated depth map to improve accuracy and
robustness ofthe output 6D pose. 3) We propose a differentiable
Perspective-n-Point(PnP) algorithm via edge convolution to explore the topology
relations between 2D-3D correspondences. Experiments demonstrate that our
proposed network outperforms current works on both effectiveness and
efficiency.
- Abstract(参考訳): 単眼の6Dポーズ推定はコンピュータビジョンの基本課題である。
既存の作業では、対応を確立し、RANSACアルゴリズムを使用して6自由度(6DoF)のポーズを計算することで、2段階のパイプラインを採用することが多い。
近年の研究では、RANSACアルゴリズムを統合して、エンドツーエンドの6Dポーズ推定を実現している。
しかし,これらの多くは3次元空間の幾何学的特徴をほとんど考慮せず,微分可能なransacアルゴリズムを実行する際に位相的手がかりを無視する。
そこで我々は6次元ポーズ推定のためのDGECN(Depth-Guided Edge Convolutional Network)を提案する。
1) 対応抽出法とそれを用いたRANSACアルゴリズムの両方を幾何学的情報で導くために, 推定深度情報の利点を生かした。
2) 推定深度マップの不確かさを利用して, 出力6Dポーズの精度とロバスト性を向上する。
3) 2d-3d対応間の位相関係を探索するために,エッジ畳み込みによる微分可能なpnpアルゴリズムを提案する。
実験により,提案するネットワークは,有効性と効率の両面で,現在の作業よりも優れていることが示された。
関連論文リスト
- Occupancy-Based Dual Contouring [12.944046673902415]
本稿では,2重畳み込み方式を提案する。
本手法は,GPU並列化を最大化するために,学習不要かつ慎重に設計されている。
論文 参考訳(メタデータ) (2024-09-20T11:32:21Z) - Spatial Feature Mapping for 6DoF Object Pose Estimation [29.929911622127502]
この研究は、6Dof (6D)オブジェクトのポーズを背景クラッタで推定することを目的としている。
本稿では,強い閉塞と背景雑音を考慮し,この課題に対処するために空間構造を活用することを提案する。
論文 参考訳(メタデータ) (2022-06-03T21:44:10Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - Weakly Supervised Learning of Keypoints for 6D Object Pose Estimation [73.40404343241782]
2次元キーポイント検出に基づく弱教師付き6次元オブジェクトポーズ推定手法を提案する。
提案手法は,最先端の完全教師付きアプローチと同等の性能を実現する。
論文 参考訳(メタデータ) (2022-03-07T16:23:47Z) - Learning Stereopsis from Geometric Synthesis for 6D Object Pose
Estimation [11.999630902627864]
現在のモノクラーベース6Dオブジェクトポーズ推定法は、一般的にRGBDベースの手法よりも競争力の低い結果が得られる。
本稿では,短いベースライン2ビュー設定による3次元幾何体積に基づくポーズ推定手法を提案する。
実験により,本手法は最先端の単分子法よりも優れ,異なる物体やシーンにおいて堅牢であることが示された。
論文 参考訳(メタデータ) (2021-09-25T02:55:05Z) - SO-Pose: Exploiting Self-Occlusion for Direct 6D Pose Estimation [98.83762558394345]
SO-Poseは、オブジェクトの6自由度(6DoF)をすべて、単一のRGBイメージから散らばった環境でポーズさせるフレームワークである。
本稿では,3次元オブジェクトの2層表現を確立するために,自己閉塞に関する新たな推論を導入する。
対応性,自己閉塞性,6次元ポーズを整列する層間合成により,精度とロバスト性をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-08-18T19:49:29Z) - FS-Net: Fast Shape-based Network for Category-Level 6D Object Pose
Estimation with Decoupled Rotation Mechanism [49.89268018642999]
6次元ポーズ推定のための効率的なカテゴリレベルの特徴抽出が可能な高速形状ベースネットワーク(FS-Net)を提案する。
提案手法は,カテゴリレベルおよびインスタンスレベルの6Dオブジェクトのポーズ推定における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-03-12T03:07:24Z) - GDR-Net: Geometry-Guided Direct Regression Network for Monocular 6D
Object Pose Estimation [71.83992173720311]
単一のRGB画像からの6次元ポーズ推定はコンピュータビジョンの基本課題である。
GDR-Net(Geometry-Guided Direct Regression Network)を用いて6Dポーズをエンドツーエンドで学習する。
提案手法は, LM, LM-O, YCB-Vデータセットの最先端手法よりも優れている。
論文 参考訳(メタデータ) (2021-02-24T09:11:31Z) - Learning 2D-3D Correspondences To Solve The Blind Perspective-n-Point
Problem [98.92148855291363]
本稿では、6-DoFの絶対カメラポーズ2D--3D対応を同時に解決するディープCNNモデルを提案する。
実データとシミュレーションデータの両方でテストした結果,本手法は既存手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-03-15T04:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。