論文の概要: Measuring Generalisation to Unseen Viewpoints, Articulations, Shapes and
Objects for 3D Hand Pose Estimation under Hand-Object Interaction
- arxiv url: http://arxiv.org/abs/2003.13764v2
- Date: Thu, 10 Sep 2020 15:35:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 08:14:00.287173
- Title: Measuring Generalisation to Unseen Viewpoints, Articulations, Shapes and
Objects for 3D Hand Pose Estimation under Hand-Object Interaction
- Title(参考訳): ハンド・オブジェクト間インタラクションによる3次元手ポーズ推定のための非知覚視点・調音・形状・物体の一般化
- Authors: Anil Armagan, Guillermo Garcia-Hernando, Seungryul Baek, Shreyas
Hampali, Mahdi Rad, Zhaohui Zhang, Shipeng Xie, MingXiu Chen, Boshen Zhang,
Fu Xiong, Yang Xiao, Zhiguo Cao, Junsong Yuan, Pengfei Ren, Weiting Huang,
Haifeng Sun, Marek Hr\'uz, Jakub Kanis, Zden\v{e}k Kr\v{n}oul, Qingfu Wan,
Shile Li, Linlin Yang, Dongheui Lee, Angela Yao, Weiguo Zhou, Sijia Mei,
Yunhui Liu, Adrian Spurr, Umar Iqbal, Pavlo Molchanov, Philippe Weinzaepfel,
Romain Br\'egier, Gr\'egory Rogez, Vincent Lepetit, Tae-Kyun Kim
- Abstract要約: HANDS'19は、現在の3Dハンドポーズ推定器(HPE)がトレーニングセットのポーズを補間し、外挿する能力を評価するための課題である。
本研究では,最先端手法の精度が低下し,トレーニングセットから外れたポーズでほとんど失敗することを示す。
- 参考スコア(独自算出の注目度): 137.28465645405655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study how well different types of approaches generalise in the task of 3D
hand pose estimation under single hand scenarios and hand-object interaction.
We show that the accuracy of state-of-the-art methods can drop, and that they
fail mostly on poses absent from the training set. Unfortunately, since the
space of hand poses is highly dimensional, it is inherently not feasible to
cover the whole space densely, despite recent efforts in collecting large-scale
training datasets. This sampling problem is even more severe when hands are
interacting with objects and/or inputs are RGB rather than depth images, as RGB
images also vary with lighting conditions and colors. To address these issues,
we designed a public challenge (HANDS'19) to evaluate the abilities of current
3D hand pose estimators (HPEs) to interpolate and extrapolate the poses of a
training set. More exactly, HANDS'19 is designed (a) to evaluate the influence
of both depth and color modalities on 3D hand pose estimation, under the
presence or absence of objects; (b) to assess the generalisation abilities
w.r.t. four main axes: shapes, articulations, viewpoints, and objects; (c) to
explore the use of a synthetic hand model to fill the gaps of current datasets.
Through the challenge, the overall accuracy has dramatically improved over the
baseline, especially on extrapolation tasks, from 27mm to 13mm mean joint
error. Our analyses highlight the impacts of: Data pre-processing, ensemble
approaches, the use of a parametric 3D hand model (MANO), and different HPE
methods/backbones.
- Abstract(参考訳): 本研究では,手動3次元手動ポーズ推定の課題において,手動のシナリオと手動物体の相互作用において,異なるタイプのアプローチがいかに一般化するかを検討する。
本研究では,最先端手法の精度が低下し,トレーニングセットから外れたポーズでほとんど失敗することを示す。
残念ながら、手ポーズの空間は高次元であるため、大規模なトレーニングデータセットの収集に最近取り組んでいるにもかかわらず、本質的に全空間を密にカバーすることは不可能である。
RGB画像は照明条件や色によっても異なるため、手と物体や入力が深度画像ではなくRGBである場合、このサンプリング問題はさらに深刻である。
これらの課題に対処するため,我々は,現在の3次元ポーズ推定器(HPE)の能力を評価するために,公開課題(HANDS'19)を設計した。
より正確には、hands'19は
(a)被写体の有無にかかわらず、3次元手振り推定における深度及び色調の影響を評価すること
b) 一般化能力を評価するために,w.r.t.の4つの主要な軸:形状,調音,視点及び対象
(c) 現在のデータセットのギャップを埋めるための合成ハンドモデルの使用を検討する。
この課題により、ベースライン、特に外挿作業において、全体の精度が27mmから13mmの平均ジョイントエラーに劇的に向上した。
データ前処理、アンサンブルアプローチ、パラメトリック3dハンドモデル(mano)、異なるhpeメソッド/バックボーンの使用などの影響について分析を行った。
関連論文リスト
- SHARP: Segmentation of Hands and Arms by Range using Pseudo-Depth for Enhanced Egocentric 3D Hand Pose Estimation and Action Recognition [5.359837526794863]
ハンドポーズは、エゴセントリックな視点における行動認識のための重要な情報である。
擬似深度画像のみを用いてRGBフレームに基づく自家中心の3次元ポーズ推定を改善することを提案する。
論文 参考訳(メタデータ) (2024-08-19T14:30:29Z) - Denoising Diffusion for 3D Hand Pose Estimation from Images [38.20064386142944]
本稿では,モノクロ画像やシーケンスからの3次元手ポーズ推定の問題に対処する。
本稿では,3次元ハンドレグレッションのための新しいエンド・ツー・エンド・エンド・フレームワークを提案する。
提案モデルは,2次元の片手画像を3Dに持ち上げる際に,最先端の性能を提供する。
論文 参考訳(メタデータ) (2023-08-18T12:57:22Z) - Transformer-based Global 3D Hand Pose Estimation in Two Hands
Manipulating Objects Scenarios [13.59950629234404]
本報告では,エゴセントリックカメラとマルチビューカメラによるECCV 2022による人体・手・活動(HBHA)問題に対する第1位ソリューションについて述べる(手ポーズ推定)。
本研究では,2つの手と物体が自我中心の視点で相互作用している入力画像から,グローバルな3次元手ポーズを推定することを目的とする。
提案手法は,トランスアーキテクチャを用いたエンドツーエンドのマルチハンドポーズ推定を行う。
論文 参考訳(メタデータ) (2022-10-20T16:24:47Z) - 3D Interacting Hand Pose Estimation by Hand De-occlusion and Removal [85.30756038989057]
単一のRGB画像から3Dインタラクションハンドポーズを推定することは、人間の行動を理解するのに不可欠である。
本稿では,難易度の高い手ポーズ推定タスクを分解し,各手のポーズを別々に推定することを提案する。
実験の結果,提案手法は従来の手ポーズ推定手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2022-07-22T13:04:06Z) - What's in your hands? 3D Reconstruction of Generic Objects in Hands [49.12461675219253]
我々の研究は、単一のRGB画像からハンドヘルドオブジェクトを再構築することを目的としている。
通常、既知の3Dテンプレートを仮定し、問題を3Dポーズ推定に還元する以前の作業とは対照的に、我々の作業は3Dテンプレートを知らずに汎用的なハンドヘルドオブジェクトを再構成する。
論文 参考訳(メタデータ) (2022-04-14T17:59:02Z) - Self-Supervised 3D Hand Pose Estimation from monocular RGB via
Contrastive Learning [50.007445752513625]
本稿では,3次元ポーズ推定における構造化回帰タスクに対する自己教師付き手法を提案する。
我々は、不変および同変のコントラスト目的の影響を実験的に検討した。
追加のラベル付きデータに基づいてトレーニングされた標準のResNet-152が、FreiHAND上のPA-EPEで7.6%の改善を実現していることを示す。
論文 参考訳(メタデータ) (2021-06-10T17:48:57Z) - Leveraging Photometric Consistency over Time for Sparsely Supervised
Hand-Object Reconstruction [118.21363599332493]
本稿では,ビデオ中のフレームの粗いサブセットに対してのみアノテーションが利用できる場合に,時間とともに光度整合性を活用する手法を提案する。
本モデルでは,ポーズを推定することにより,手や物体を3Dで共同で再構成するカラーイメージをエンドツーエンドに訓練する。
提案手法は,3次元手動画像再構成の精度向上に有効であることを示す。
論文 参考訳(メタデータ) (2020-04-28T12:03:14Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。