論文の概要: BiCo-Net: Regress Globally, Match Locally for Robust 6D Pose Estimation
- arxiv url: http://arxiv.org/abs/2205.03536v1
- Date: Sat, 7 May 2022 03:37:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 15:55:42.086760
- Title: BiCo-Net: Regress Globally, Match Locally for Robust 6D Pose Estimation
- Title(参考訳): BiCo-Net: グローバルに回帰し、ロバストな6D Pose推定に局所的に一致
- Authors: Zelin Xu, Yichen Zhang, Ke Chen, Kui Jia
- Abstract要約: 双方向対応マッピングネットワーク(BiCo-Net)は、典型的なポーズ回帰によって導かれる点雲を生成する。
局所的マッチングと直接ポーズ回帰による冗長なポーズ予測のアンサンブルは、ノイズ観測に対する最終的なポーズ出力をさらに洗練する。
- 参考スコア(独自算出の注目度): 32.49091033895255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The challenges of learning a robust 6D pose function lie in 1) severe
occlusion and 2) systematic noises in depth images. Inspired by the success of
point-pair features, the goal of this paper is to recover the 6D pose of an
object instance segmented from RGB-D images by locally matching pairs of
oriented points between the model and camera space. To this end, we propose a
novel Bi-directional Correspondence Mapping Network (BiCo-Net) to first
generate point clouds guided by a typical pose regression, which can thus
incorporate pose-sensitive information to optimize generation of local
coordinates and their normal vectors. As pose predictions via geometric
computation only rely on one single pair of local oriented points, our BiCo-Net
can achieve robustness against sparse and occluded point clouds. An ensemble of
redundant pose predictions from locally matching and direct pose regression
further refines final pose output against noisy observations. Experimental
results on three popularly benchmarking datasets can verify that our method can
achieve state-of-the-art performance, especially for the more challenging
severe occluded scenes. Source codes are available at
https://github.com/Gorilla-Lab-SCUT/BiCo-Net.
- Abstract(参考訳): 頑健な6次元ポーズ関数の学習の課題
1)重度の閉塞と
2)奥行き画像における系統的ノイズ
ポイントペア機能の成功に触発されて,rgb-d画像から区切られたオブジェクトインスタンスの6dポーズを,モデルとカメラ空間の間の向き付けのペアを局所的に一致させることで回復する。
そこで本研究では,2方向対応マッピングネットワーク (BiCo-Net) を提案する。このネットワークは,まず典型的なポーズ回帰によって誘導される点雲を生成し,ポーズに敏感な情報を組み込んで局所座標とその正規ベクトルの生成を最適化する。
幾何計算によるポーズ予測は1対の局所配向点のみに依存しているため、我々のBiCo-Netはスパースおよび隠蔽点雲に対して堅牢性を達成することができる。
局所マッチングと直接ポーズ回帰からの冗長なポーズ予測のアンサンブルは、ノイズ観測に対する最終的なポーズ出力をさらに洗練する。
一般的な3つのベンチマークデータセットの実験結果から,本手法が最先端の性能,特に難易度の高いシーンにおいて達成可能であることを確認することができる。
ソースコードはhttps://github.com/Gorilla-Lab-SCUT/BiCo-Netで入手できる。
関連論文リスト
- RDPN6D: Residual-based Dense Point-wise Network for 6Dof Object Pose Estimation Based on RGB-D Images [13.051302134031808]
単一のRGB-D画像を用いてオブジェクトの6DoFポーズを計算する新しい手法を提案する。
オブジェクトのポーズを直接予測する既存の手法や、ポーズ回復のためのスパースキーポイントに依存する既存の手法とは異なり、我々のアプローチは密度の高い対応を使ってこの課題に対処する。
論文 参考訳(メタデータ) (2024-05-14T10:10:45Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - RelPose++: Recovering 6D Poses from Sparse-view Observations [66.6922660401558]
スパースビュー画像集合(2-8画像)から6次元カメラポーズを推定する作業に対処する。
我々は,画像対上の相対回転よりも分布を推定するネットワークを学習するRelPoseフレームワークを構築した。
最終システムは,先行技術よりも6次元ポーズ予測を大幅に改善する。
論文 参考訳(メタデータ) (2023-05-08T17:59:58Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - A Dynamic Keypoints Selection Network for 6DoF Pose Estimation [0.0]
6 DoF は2つの座標間の回転と変換のパラメータを推定することを目的とした推定問題である。
単一のRGBD画像から6DoFポーズ推定のために設計された動的キーポイント選択に基づく新しいディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-24T09:58:56Z) - SO-Pose: Exploiting Self-Occlusion for Direct 6D Pose Estimation [98.83762558394345]
SO-Poseは、オブジェクトの6自由度(6DoF)をすべて、単一のRGBイメージから散らばった環境でポーズさせるフレームワークである。
本稿では,3次元オブジェクトの2層表現を確立するために,自己閉塞に関する新たな推論を導入する。
対応性,自己閉塞性,6次元ポーズを整列する層間合成により,精度とロバスト性をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-08-18T19:49:29Z) - CAPTRA: CAtegory-level Pose Tracking for Rigid and Articulated Objects
from Point Clouds [97.63549045541296]
新規なリジッドオブジェクトインスタンスに対する9DoFポーズトラッキングと,関節付きオブジェクトに対するパート毎ポーズトラッキングを処理可能な統一フレームワークを提案する。
本手法は、高速なFPS 12で、カテゴリレベルのリジッドオブジェクトポーズ(NOCS-REAL275)と関節オブジェクトポーズベンチマーク(SAPIEN、BMVC)の最新のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-04-08T00:14:58Z) - Deep Bingham Networks: Dealing with Uncertainty and Ambiguity in Pose
Estimation [74.76155168705975]
Deep Bingham Networks (DBN)は、3Dデータに関するほぼすべての実生活アプリケーションで発生するポーズ関連の不確実性と曖昧性を扱うことができる。
DBNは、(i)異なる分布モードを生成できる多仮説予測ヘッドにより、アートダイレクトポーズ回帰ネットワークの状態を拡張する。
トレーニング中のモードや後方崩壊を回避し,数値安定性を向上させるための新しいトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-12-20T19:20:26Z) - W-PoseNet: Dense Correspondence Regularized Pixel Pair Pose Regression [34.8793946023412]
本稿では,新しいポーズ推定アルゴリズムW-PoseNetを提案する。
入力データから6Dポーズ、モデル空間内の3D座標に密に回帰する。
YCB-Video と LineMOD のベンチマーク実験の結果,提案した W-PoseNet は一貫して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2019-12-26T15:51:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。