論文の概要: 3D Point-to-Keypoint Voting Network for 6D Pose Estimation
- arxiv url: http://arxiv.org/abs/2012.11938v1
- Date: Tue, 22 Dec 2020 11:43:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 07:30:27.321291
- Title: 3D Point-to-Keypoint Voting Network for 6D Pose Estimation
- Title(参考訳): 6次元ポッド推定のための3次元ポイントツーキーポイント投票ネットワーク
- Authors: Weitong Hua, Jiaxin Guo, Yue Wang and Rong Xiong
- Abstract要約: 3次元キーポイントの空間構造特性に基づくRGB-Dデータから6次元ポーズ推定のためのフレームワークを提案する。
提案手法は, LINEMOD と OCCLUSION LINEMOD の2つのベンチマークデータセットで検証する。
- 参考スコア(独自算出の注目度): 8.801404171357916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object 6D pose estimation is an important research topic in the field of
computer vision due to its wide application requirements and the challenges
brought by complexity and changes in the real-world. We think fully exploring
the characteristics of spatial relationship between points will help to improve
the pose estimation performance, especially in the scenes of background clutter
and partial occlusion. But this information was usually ignored in previous
work using RGB image or RGB-D data. In this paper, we propose a framework for
6D pose estimation from RGB-D data based on spatial structure characteristics
of 3D keypoints. We adopt point-wise dense feature embedding to vote for 3D
keypoints, which makes full use of the structure information of the rigid body.
After the direction vectors pointing to the keypoints are predicted by CNN, we
use RANSAC voting to calculate the coordinate of the 3D keypoints, then the
pose transformation can be easily obtained by the least square method. In
addition, a spatial dimension sampling strategy for points is employed, which
makes the method achieve excellent performance on small training sets. The
proposed method is verified on two benchmark datasets, LINEMOD and OCCLUSION
LINEMOD. The experimental results show that our method outperforms the
state-of-the-art approaches, achieves ADD(-S) accuracy of 98.7\% on LINEMOD
dataset and 52.6\% on OCCLUSION LINEMOD dataset in real-time.
- Abstract(参考訳): オブジェクト6Dのポーズ推定は、その幅広いアプリケーション要件と現実世界の複雑さや変化に起因する課題により、コンピュータビジョンの分野で重要な研究トピックである。
ポイント間の空間的関係の特徴を十分に探究することは,特に背景クラッタや部分的咬合の場面において,ポーズ推定性能の向上に寄与すると考える。
しかし、この情報は以前の研究ではRGB画像やRGB-Dデータを使って無視されることが多い。
本稿では,3次元キーポイントの空間構造特性に基づいたRGB-Dデータから6次元ポーズ推定を行うフレームワークを提案する。
剛体の構造情報を完全に活用する3次元キーポイントの投票には,ポイントワイドな特徴埋め込みを採用する。
cnnによってキーポイントを指す方向ベクトルが予測された後、ransac投票を用いて3dキーポイントの座標を計算し、最小二乗法でポーズ変換が容易に得られる。
また、点の空間次元サンプリング戦略を採用し、小さなトレーニングセットで優れた性能が得られるようにした。
提案手法は, LINEMOD と OCCLUSION LINEMOD の2つのベンチマークデータセットで検証する。
実験の結果,本手法は最先端手法よりも優れており,LINEMODデータセットでは98.7\%,OCCLUSION LINEMODデータセットでは52.6\%の精度を実現している。
関連論文リスト
- PointOcc: Cylindrical Tri-Perspective View for Point-based 3D Semantic
Occupancy Prediction [72.75478398447396]
本稿では,点雲を効果的かつ包括的に表現する円筒型三重対視図を提案する。
また,LiDAR点雲の距離分布を考慮し,円筒座標系における三点ビューを構築した。
プロジェクション中に構造の詳細を維持するために空間群プーリングを使用し、各TPV平面を効率的に処理するために2次元バックボーンを採用する。
論文 参考訳(メタデータ) (2023-08-31T17:57:17Z) - Spatial Feature Mapping for 6DoF Object Pose Estimation [29.929911622127502]
この研究は、6Dof (6D)オブジェクトのポーズを背景クラッタで推定することを目的としている。
本稿では,強い閉塞と背景雑音を考慮し,この課題に対処するために空間構造を活用することを提案する。
論文 参考訳(メタデータ) (2022-06-03T21:44:10Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - ZebraPose: Coarse to Fine Surface Encoding for 6DoF Object Pose
Estimation [76.31125154523056]
物体表面を高密度に表現できる離散ディスクリプタを提案する。
また,微粒化対応予測が可能な微粒化学習戦略を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:24Z) - Weakly Supervised Learning of Keypoints for 6D Object Pose Estimation [73.40404343241782]
2次元キーポイント検出に基づく弱教師付き6次元オブジェクトポーズ推定手法を提案する。
提案手法は,最先端の完全教師付きアプローチと同等の性能を実現する。
論文 参考訳(メタデータ) (2022-03-07T16:23:47Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - KDFNet: Learning Keypoint Distance Field for 6D Object Pose Estimation [43.839322860501596]
KDFNetはRGB画像から6次元オブジェクトのポーズ推定を行う新しい手法である。
投影された2次元キーポイント位置に対するキーポイント距離場(KDF)と呼ばれる連続表現を提案する。
我々は、キーポイント毎にKDFを回帰するために、完全に畳み込みニューラルネットワークを使用します。
論文 参考訳(メタデータ) (2021-09-21T12:17:24Z) - Vote from the Center: 6 DoF Pose Estimation in RGB-D Images by Radial
Keypoint Voting [7.6997148655751895]
本稿では,既存のスキームよりも精度が高く,分散キーポイントのより小さな集合を可能にする,交差球面に基づく新しいキーポイント投票方式を提案する。
提案手法は,RGB-Dデータ中の3次元オブジェクトの6次元ポーズ推定のためのRCVPose法の基礎となる。
論文 参考訳(メタデータ) (2021-04-06T14:06:08Z) - FS-Net: Fast Shape-based Network for Category-Level 6D Object Pose
Estimation with Decoupled Rotation Mechanism [49.89268018642999]
6次元ポーズ推定のための効率的なカテゴリレベルの特徴抽出が可能な高速形状ベースネットワーク(FS-Net)を提案する。
提案手法は,カテゴリレベルおよびインスタンスレベルの6Dオブジェクトのポーズ推定における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-03-12T03:07:24Z) - L6DNet: Light 6 DoF Network for Robust and Precise Object Pose
Estimation with Small Datasets [0.0]
1枚のRGB-D画像から6つのDoFオブジェクトのポーズ推定を行う新しい手法を提案する。
データ駆動と幾何学という2段階のハイブリッドパイプラインを採用しています。
私たちのアプローチは最先端の手法よりも堅牢で正確です。
論文 参考訳(メタデータ) (2020-02-03T17:41:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。