論文の概要: Semi-supervised 3D Hand-Object Pose Estimation via Pose Dictionary
Learning
- arxiv url: http://arxiv.org/abs/2107.07676v1
- Date: Fri, 16 Jul 2021 02:50:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-19 14:40:39.915315
- Title: Semi-supervised 3D Hand-Object Pose Estimation via Pose Dictionary
Learning
- Title(参考訳): ポーズ辞書学習による半教師付き3次元手指ポーズ推定
- Authors: Zida Cheng, Siheng Chen, Ya Zhang
- Abstract要約: 現在の手動ポーズ推定法は,高価で労働集約的な詳細な3Dラベルを必要とする。
そこで本研究では,ポーズ辞書学習とオブジェクト指向座標系という2つの重要な手法を用いて,半教師付き3次元手動ポーズ推定手法を提案する。
本手法は,ラベル付きデータを用いた場合と比較して,手・対象物に対する推定誤差を19.5%/24.9%削減する。
- 参考スコア(独自算出の注目度): 27.78922896432688
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D hand-object pose estimation is an important issue to understand the
interaction between human and environment. Current hand-object pose estimation
methods require detailed 3D labels, which are expensive and labor-intensive. To
tackle the problem of data collection, we propose a semi-supervised 3D
hand-object pose estimation method with two key techniques: pose dictionary
learning and an object-oriented coordinate system. The proposed pose dictionary
learning module can distinguish infeasible poses by reconstruction error,
enabling unlabeled data to provide supervision signals. The proposed
object-oriented coordinate system can make 3D estimations equivariant to the
camera perspective. Experiments are conducted on FPHA and HO-3D datasets. Our
method reduces estimation error by 19.5% / 24.9% for hands/objects compared to
straightforward use of labeled data on FPHA and outperforms several baseline
methods. Extensive experiments also validate the robustness of the proposed
method.
- Abstract(参考訳): 3次元手動ポーズ推定は,人間と環境の相互作用を理解する上で重要な課題である。
現在の手動ポーズ推定法は,高価で労働集約的な詳細な3Dラベルを必要とする。
データ収集の課題に対処するために,ポーズ辞書学習とオブジェクト指向座標系という2つの重要な手法を用いて,半教師付き3次元ポーズ推定手法を提案する。
提案するポーズ辞書学習モジュールは、再構成誤差により実現不可能なポーズを識別することができ、ラベルのないデータが監督信号を提供することができる。
提案するオブジェクト指向座標系は3次元推定をカメラの視点と等価にすることができる。
FPHAとHO-3Dデータセットを用いて実験を行った。
提案手法は,FPHA上のラベル付きデータの直接使用と比較して,手・対象物の推定誤差を19.5%/24.9%削減し,いくつかのベースライン法より優れる。
広範な実験により,提案手法のロバスト性が検証された。
関連論文リスト
- LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - Self-supervised 3D Human Pose Estimation from a Single Image [1.0878040851638]
本研究では,1枚の画像から3次元人体ポーズを予測する自己教師型手法を提案する。
予測ネットワークは、典型的なポーズの人物と、未ペアの2Dポーズのセットを描写した未ラベル画像のデータセットから訓練される。
論文 参考訳(メタデータ) (2023-04-05T10:26:21Z) - PONet: Robust 3D Human Pose Estimation via Learning Orientations Only [116.1502793612437]
本稿では,学習向きのみを用いて3次元ポーズを頑健に推定できる新しいPose Orientation Net(PONet)を提案する。
PONetは、局所的な画像証拠を利用して、これらの手足の3D方向を推定し、3Dポーズを復元する。
我々は,Human3.6M,MPII,MPI-INF-3DHP,3DPWを含む複数のデータセットについて評価を行った。
論文 参考訳(メタデータ) (2021-12-21T12:48:48Z) - Towards unconstrained joint hand-object reconstruction from RGB videos [81.97694449736414]
ハンドオブジェクト操作の再構築は、ロボット工学と人間のデモから学ぶ大きな可能性を秘めている。
まず,手動物体の相互作用をシームレスに処理できる学習不要な手動物体再構成手法を提案する。
論文 参考訳(メタデータ) (2021-08-16T12:26:34Z) - Self-Supervised 3D Hand Pose Estimation from monocular RGB via
Contrastive Learning [50.007445752513625]
本稿では,3次元ポーズ推定における構造化回帰タスクに対する自己教師付き手法を提案する。
我々は、不変および同変のコントラスト目的の影響を実験的に検討した。
追加のラベル付きデータに基づいてトレーニングされた標準のResNet-152が、FreiHAND上のPA-EPEで7.6%の改善を実現していることを示す。
論文 参考訳(メタデータ) (2021-06-10T17:48:57Z) - PoseContrast: Class-Agnostic Object Viewpoint Estimation in the Wild
with Pose-Aware Contrastive Learning [23.608940131120637]
3次元形状の知識を持たず,クラス非依存な3次元物体ポーズ推定の課題を考察する。
このアイデアは、目に見えないクラスのポーズを推定するために、観測されたクラスで学んだ機能を利用していますが、同様のジオメトリと正規フレームを観測されたクラスと共有します。
追加形状情報を使用する方法や検出された境界ボックスを使用する場合を含め,最先端の結果を報告する。
論文 参考訳(メタデータ) (2021-05-12T13:21:24Z) - 3D Registration for Self-Occluded Objects in Context [66.41922513553367]
このシナリオを効果的に処理できる最初のディープラーニングフレームワークを紹介します。
提案手法はインスタンスセグメンテーションモジュールとポーズ推定モジュールから構成される。
これにより、高価な反復手順を必要とせず、ワンショットで3D登録を行うことができます。
論文 参考訳(メタデータ) (2020-11-23T08:05:28Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z) - Measuring Generalisation to Unseen Viewpoints, Articulations, Shapes and
Objects for 3D Hand Pose Estimation under Hand-Object Interaction [137.28465645405655]
HANDS'19は、現在の3Dハンドポーズ推定器(HPE)がトレーニングセットのポーズを補間し、外挿する能力を評価するための課題である。
本研究では,最先端手法の精度が低下し,トレーニングセットから外れたポーズでほとんど失敗することを示す。
論文 参考訳(メタデータ) (2020-03-30T19:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。