論文の概要: KDFNet: Learning Keypoint Distance Field for 6D Object Pose Estimation
- arxiv url: http://arxiv.org/abs/2109.10127v1
- Date: Tue, 21 Sep 2021 12:17:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 14:28:42.513669
- Title: KDFNet: Learning Keypoint Distance Field for 6D Object Pose Estimation
- Title(参考訳): kdfnet: 6次元ポーズ推定のためのキーポイント距離場学習
- Authors: Xingyu Liu, Shun Iwase, Kris M. Kitani
- Abstract要約: KDFNetはRGB画像から6次元オブジェクトのポーズ推定を行う新しい手法である。
投影された2次元キーポイント位置に対するキーポイント距離場(KDF)と呼ばれる連続表現を提案する。
我々は、キーポイント毎にKDFを回帰するために、完全に畳み込みニューラルネットワークを使用します。
- 参考スコア(独自算出の注目度): 43.839322860501596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present KDFNet, a novel method for 6D object pose estimation from RGB
images. To handle occlusion, many recent works have proposed to localize 2D
keypoints through pixel-wise voting and solve a Perspective-n-Point (PnP)
problem for pose estimation, which achieves leading performance. However, such
voting process is direction-based and cannot handle long and thin objects where
the direction intersections cannot be robustly found. To address this problem,
we propose a novel continuous representation called Keypoint Distance Field
(KDF) for projected 2D keypoint locations. Formulated as a 2D array, each
element of the KDF stores the 2D Euclidean distance between the corresponding
image pixel and a specified projected 2D keypoint. We use a fully convolutional
neural network to regress the KDF for each keypoint. Using this KDF encoding of
projected object keypoint locations, we propose to use a distance-based voting
scheme to localize the keypoints by calculating circle intersections in a
RANSAC fashion. We validate the design choices of our framework by extensive
ablation experiments. Our proposed method achieves state-of-the-art performance
on Occlusion LINEMOD dataset with an average ADD(-S) accuracy of 50.3% and TOD
dataset mug subset with an average ADD accuracy of 75.72%. Extensive
experiments and visualizations demonstrate that the proposed method is able to
robustly estimate the 6D pose in challenging scenarios including occlusion.
- Abstract(参考訳): RGB画像から6次元オブジェクトのポーズ推定を行う新しい手法であるKDFNetを提案する。
隠蔽に対処するため,近年,画素ワイド投票による2次元キーポイントのローカライズとポーズ推定のためのパースペクティブ・n・ポイント(PnP)問題の解決が提案されている。
しかし、このような投票プロセスは方向ベースであり、方向交叉が頑健に見つからない長い物体や薄い物体を扱えない。
そこで本研究では,KDF(Keypoint Distance Field)と呼ばれる2次元キーポイント位置の連続表現を提案する。
KDFの各素子は、2Dアレイとして構成され、対応する画像画素と所定の投影された2Dキーポイントとの間の2Dユークリッド距離を記憶する。
完全畳み込みニューラルネットワークを使用して、キーポイント毎にKDFを回帰します。
本研究では,このkdf符号化を用いて距離ベースの投票方式を用いて,円交点をransac方式で計算し,キーポイントを局所化する手法を提案する。
我々は, 広範なアブレーション実験により, フレームワークの設計選択を検証する。
提案手法は,平均ADD(-S)精度50.3%のOcclusion LINEMODデータセットと平均ADD精度75.72%のTODデータセットMugサブセットの最先端性能を実現する。
広汎な実験と可視化により, 閉塞を含む難解なシナリオにおいて, 提案手法が6次元のポーズを頑健に推定できることが実証された。
関連論文リスト
- CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - Weakly Supervised Learning of Keypoints for 6D Object Pose Estimation [73.40404343241782]
2次元キーポイント検出に基づく弱教師付き6次元オブジェクトポーズ推定手法を提案する。
提案手法は,最先端の完全教師付きアプローチと同等の性能を実現する。
論文 参考訳(メタデータ) (2022-03-07T16:23:47Z) - A Dynamic Keypoints Selection Network for 6DoF Pose Estimation [0.0]
6 DoF は2つの座標間の回転と変換のパラメータを推定することを目的とした推定問題である。
単一のRGBD画像から6DoFポーズ推定のために設計された動的キーポイント選択に基づく新しいディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-24T09:58:56Z) - 6D Object Pose Estimation using Keypoints and Part Affinity Fields [24.126513851779936]
RGB画像からの6Dオブジェクトのポーズ推定のタスクは、自律型サービスロボットが現実世界と対話できるための重要な要件である。
既知物体の6自由度変換と配向を推定するための2段階パイプラインを提案する。
論文 参考訳(メタデータ) (2021-07-05T14:41:19Z) - Vote from the Center: 6 DoF Pose Estimation in RGB-D Images by Radial
Keypoint Voting [7.6997148655751895]
本稿では,既存のスキームよりも精度が高く,分散キーポイントのより小さな集合を可能にする,交差球面に基づく新しいキーポイント投票方式を提案する。
提案手法は,RGB-Dデータ中の3次元オブジェクトの6次元ポーズ推定のためのRCVPose法の基礎となる。
論文 参考訳(メタデータ) (2021-04-06T14:06:08Z) - 3D Point-to-Keypoint Voting Network for 6D Pose Estimation [8.801404171357916]
3次元キーポイントの空間構造特性に基づくRGB-Dデータから6次元ポーズ推定のためのフレームワークを提案する。
提案手法は, LINEMOD と OCCLUSION LINEMOD の2つのベンチマークデータセットで検証する。
論文 参考訳(メタデータ) (2020-12-22T11:43:15Z) - Learning 2D-3D Correspondences To Solve The Blind Perspective-n-Point
Problem [98.92148855291363]
本稿では、6-DoFの絶対カメラポーズ2D--3D対応を同時に解決するディープCNNモデルを提案する。
実データとシミュレーションデータの両方でテストした結果,本手法は既存手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-03-15T04:17:30Z) - Robust 6D Object Pose Estimation by Learning RGB-D Features [59.580366107770764]
本稿では、この局所最適問題を解くために、回転回帰のための離散連続的な新しい定式化を提案する。
我々はSO(3)の回転アンカーを均一にサンプリングし、各アンカーから目標への制約付き偏差を予測し、最適な予測を選択するための不確実性スコアを出力する。
LINEMOD と YCB-Video の2つのベンチマーク実験により,提案手法が最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2020-02-29T06:24:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。