論文の概要: A Dynamic Keypoints Selection Network for 6DoF Pose Estimation
- arxiv url: http://arxiv.org/abs/2110.12401v1
- Date: Sun, 24 Oct 2021 09:58:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 16:02:58.073069
- Title: A Dynamic Keypoints Selection Network for 6DoF Pose Estimation
- Title(参考訳): 6次元ポーズ推定のための動的キーポイント選択ネットワーク
- Authors: Haowen Sun, Taiyong Wang
- Abstract要約: 6 DoF は2つの座標間の回転と変換のパラメータを推定することを目的とした推定問題である。
単一のRGBD画像から6DoFポーズ推定のために設計された動的キーポイント選択に基づく新しいディープニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 6 DoF poses estimation problem aims to estimate the rotation and translation
parameters between two coordinates, such as object world coordinate and camera
world coordinate. Although some advances are made with the help of deep
learning, how to full use scene information is still a problem. Prior works
tackle the problem by pixel-wise feature fusion but need to randomly selecte
numerous points from images, which can not satisfy the demands of fast
inference simultaneously and accurate pose estimation. In this work, we present
a novel deep neural network based on dynamic keypoints selection designed for
6DoF pose estimation from a single RGBD image. Our network includes three
parts, instance semantic segmentation, edge points detection and 6DoF pose
estimation. Given an RGBD image, our network is trained to predict pixel
category and the translation to edge points and center points. Then, a
least-square fitting manner is applied to estimate the 6DoF pose parameters.
Specifically, we propose a dynamic keypoints selection algorithm to choose
keypoints from the foreground feature map. It allows us to leverage geometric
and appearance information. During 6DoF pose estimation, we utilize the
instance semantic segmentation result to filter out background points and only
use foreground points to finish edge points detection and 6DoF pose estimation.
Experiments on two commonly used 6DoF estimation benchmark datasets, YCB-Video
and LineMoD, demonstrate that our method outperforms the state-of-the-art
methods and achieves significant improvements over other same category methods
time efficiency.
- Abstract(参考訳): 6DoFは,オブジェクトワールド座標やカメラワールド座標などの2つの座標間の回転と変換パラメータを推定することを目的とした。
深層学習の助けを借りていくつかの進歩がなされているが、シーン情報をフル活用する方法はまだ問題である。
先行研究は画素単位の機能融合によってこの問題に取り組むが、画像から多数の点をランダムに選択する必要があるため、高速な推論と正確なポーズ推定の要求を同時に満たせない。
本稿では,単一のrgbd画像から6dofポーズ推定のために設計された動的キーポイント選択に基づく新しいディープニューラルネットワークを提案する。
ネットワークには,インスタンス意味セグメンテーション,エッジポイント検出,6dofポーズ推定の3つの部分が含まれている。
rgbdイメージが与えられると、ネットワークはピクセルカテゴリとエッジポイントとセンターポイントへの変換を予測するように訓練されます。
次に6dofポーズパラメータを推定するために最小2乗のフィッティング方法を適用する。
具体的には,前景特徴マップからキーポイントを選択する動的キーポイント選択アルゴリズムを提案する。
幾何学的情報や外観情報を活用できます
6dofポーズ推定では,インスタンス意味セグメンテーション結果を用いて背景ポイントをフィルタリングし,前景点のみを使用してエッジポイントの検出と6dofポーズ推定を行う。
YCB-VideoとLineMoDという2つの一般的な6DoF推定ベンチマークデータセットの実験により、我々の手法は最先端の手法よりも優れており、他のカテゴリの手法よりも大幅に改善されていることが示された。
関連論文リスト
- KGpose: Keypoint-Graph Driven End-to-End Multi-Object 6D Pose Estimation via Point-Wise Pose Voting [0.0]
KGposeは、複数のオブジェクトの6Dポーズ推定のためのエンドツーエンドフレームワークである。
我々のアプローチはキーポイントベースの手法とキーポイントグラフによる学習可能なポーズ回帰を組み合わせる。
論文 参考訳(メタデータ) (2024-07-12T01:06:00Z) - Depth-based 6DoF Object Pose Estimation using Swin Transformer [1.14219428942199]
オブジェクトの6Dポーズを正確に推定することは、ロボットの把握、自律運転、拡張現実など、多くのアプリケーションにとって不可欠である。
深度画像からの幾何情報のみを用いて正確な6次元ポーズ推定を行うSwinDePoseという新しいフレームワークを提案する。
LineModおよびOcclusion LineModデータセットの実験において、SwinDePoseは深度画像を用いた6Dオブジェクトのポーズ推定のための既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-03-03T18:25:07Z) - BiCo-Net: Regress Globally, Match Locally for Robust 6D Pose Estimation [32.49091033895255]
双方向対応マッピングネットワーク(BiCo-Net)は、典型的なポーズ回帰によって導かれる点雲を生成する。
局所的マッチングと直接ポーズ回帰による冗長なポーズ予測のアンサンブルは、ノイズ観測に対する最終的なポーズ出力をさらに洗練する。
論文 参考訳(メタデータ) (2022-05-07T03:37:33Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - ZebraPose: Coarse to Fine Surface Encoding for 6DoF Object Pose
Estimation [76.31125154523056]
物体表面を高密度に表現できる離散ディスクリプタを提案する。
また,微粒化対応予測が可能な微粒化学習戦略を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:24Z) - Weakly Supervised Learning of Keypoints for 6D Object Pose Estimation [73.40404343241782]
2次元キーポイント検出に基づく弱教師付き6次元オブジェクトポーズ推定手法を提案する。
提案手法は,最先端の完全教師付きアプローチと同等の性能を実現する。
論文 参考訳(メタデータ) (2022-03-07T16:23:47Z) - 6D Object Pose Estimation using Keypoints and Part Affinity Fields [24.126513851779936]
RGB画像からの6Dオブジェクトのポーズ推定のタスクは、自律型サービスロボットが現実世界と対話できるための重要な要件である。
既知物体の6自由度変換と配向を推定するための2段階パイプラインを提案する。
論文 参考訳(メタデータ) (2021-07-05T14:41:19Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z) - Back to the Feature: Learning Robust Camera Localization from Pixels to
Pose [114.89389528198738]
画像と3Dモデルから正確な6-DoFのポーズを推定するシーンに依存しないニューラルネットワークPixLocを導入する。
このシステムは、粗いポーズ前の大きな環境でもローカライズできるが、スパース特徴マッチングの精度も向上する。
論文 参考訳(メタデータ) (2021-03-16T17:40:12Z) - Point-Set Anchors for Object Detection, Instance Segmentation and Pose
Estimation [85.96410825961966]
中心点から抽出された画像の特徴は、離れたキーポイントや境界ボックスの境界を予測するための限られた情報を含んでいると論じる。
推論を容易にするために,より有利な位置に配置された点集合からの回帰を行うことを提案する。
我々は、オブジェクト検出、インスタンス分割、人間のポーズ推定にPoint-Set Anchorsと呼ばれるこのフレームワークを適用した。
論文 参考訳(メタデータ) (2020-07-06T15:59:56Z) - L6DNet: Light 6 DoF Network for Robust and Precise Object Pose
Estimation with Small Datasets [0.0]
1枚のRGB-D画像から6つのDoFオブジェクトのポーズ推定を行う新しい手法を提案する。
データ駆動と幾何学という2段階のハイブリッドパイプラインを採用しています。
私たちのアプローチは最先端の手法よりも堅牢で正確です。
論文 参考訳(メタデータ) (2020-02-03T17:41:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。