論文の概要: H3WB: Human3.6M 3D WholeBody Dataset and Benchmark
- arxiv url: http://arxiv.org/abs/2211.15692v1
- Date: Mon, 28 Nov 2022 19:00:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 16:12:19.340582
- Title: H3WB: Human3.6M 3D WholeBody Dataset and Benchmark
- Title(参考訳): h3wb:human3.6mの3dデータセットとベンチマーク
- Authors: Yue Zhu, Nermin Samet, David Picard
- Abstract要約: 3Dの人体全体のポーズ推定は、人体全体の正確な3Dキーポイントをローカライズすることを目的としている。
Human3.6M 3D WholeBody (H3WB)は、100K画像に133ボディのキーポイントアノテーションを付加した大規模なデータセットである。
- 参考スコア(独自算出の注目度): 24.334307883681916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D human whole-body pose estimation aims to localize precise 3D keypoints on
the entire human body, including the face, hands, body, and feet. Due to the
lack of a large-scale fully annotated 3D whole-body dataset, a common approach
has been to train several deep networks separately on datasets dedicated to
specific body parts, and combine them during inference. This approach suffers
from complex training and inference pipelines because of the different biases
in each dataset used. It also lacks a common benchmark which makes it difficult
to compare different methods. To address these issues, we introduce Human3.6M
3D WholeBody (H3WB) which provides whole-body annotations for the Human3.6M
dataset using the COCO Wholebody layout. H3WB is a large scale dataset with 133
whole-body keypoint annotations on 100K images, made possible by our new
multi-view pipeline.
Along with H3WB, we propose 3 tasks: i) 3D whole-body pose lifting from 2D
complete whole-body pose, ii) 3D whole-body pose lifting from 2D incomplete
whole-body pose, iii) 3D whole-body pose estimation from a single RGB image. We
also report several baselines from popular methods for these tasks. The dataset
is publicly available at \url{https://github.com/wholebody3d/wholebody3d}.
- Abstract(参考訳): 3D人間全体のポーズ推定は、顔、手、体、足など、人体全体の正確な3Dキーポイントをローカライズすることを目的としている。
大規模な完全に注釈付けされた3Dボディデータセットがないため、一般的なアプローチは、特定の身体部分専用のデータセットで複数のディープネットワークを個別にトレーニングし、推論中にそれらを組み合わせることである。
このアプローチは、使用するデータセットのバイアスが異なるため、複雑なトレーニングと推論パイプラインに悩まされる。
また、異なるメソッドを比較するのが難しい共通のベンチマークがない。
これらの問題に対処するために、COCO Wholebodyレイアウトを使用して、Human3.6Mデータセットに全身アノテーションを提供するHuman3.6M 3D WholeBody (H3WB)を導入する。
H3WBは、100Kイメージに133のボディ全体のキーポイントアノテーションを備えた大規模なデータセットで、新しいマルチビューパイプラインで実現しました。
H3WBとともに3つのタスクを提案する。
一 2次元完全全身ポーズから持ち上げる3次元全身ポーズ
二 2次元不完全な全身ポーズから持ち上げる3次元全身ポーズ
三 単一のRGB画像から全身の3次元ポーズ推定
また,これらの課題に対する一般的な手法のベースラインをいくつか報告する。
データセットは \url{https://github.com/wholebody3d/wholebody3d} で公開されている。
関連論文リスト
- Decanus to Legatus: Synthetic training for 2D-3D human pose lifting [26.108023246654646]
10個の手作り3Dポーズ(Decanus)に基づく3Dポーズ分布から無限個の合成人間のポーズ(Legatus)を生成するアルゴリズムを提案する。
この結果から,特定データセットの実際のデータを用いた手法に匹敵する3次元ポーズ推定性能を,ゼロショット設定で実現し,フレームワークの可能性を示した。
論文 参考訳(メタデータ) (2022-10-05T13:10:19Z) - Accurate 3D Body Shape Regression using Metric and Semantic Attributes [55.58629009876271]
画像からの3次元身体形状の回帰は、人文計測や言語的形状特性から訓練できることを示す。
これは、画像から3次元の身体形状の回帰を、容易に測定できる人文計測と言語的形状特性から訓練できる最初の実演である。
論文 参考訳(メタデータ) (2022-06-14T17:54:49Z) - Tracking People with 3D Representations [78.97070307547283]
ビデオ中の複数の人物を追跡する新しい手法を提案する。
従来の2次元表現を用いたアプローチとは違って,3次元空間における人物の3次元表現を用いる。
これらの環境下での3次元表現は2次元表現よりも効果的であることがわかった。
論文 参考訳(メタデータ) (2021-11-15T16:15:21Z) - Learning Temporal 3D Human Pose Estimation with Pseudo-Labels [3.0954251281114513]
自己監督型3次元ポーズ推定のための簡易かつ効果的なアプローチを提案する。
我々は、マルチビューカメラシステムの2Dボディポーズ推定を三角測量に頼っている。
提案手法はHuman3.6MとMPI-INF-3DHPベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-10-14T17:40:45Z) - VoxelTrack: Multi-Person 3D Human Pose Estimation and Tracking in the
Wild [98.69191256693703]
本稿では,VoxelTrackを用いて,多人数の3次元ポーズ推定と,広義のベースラインで分離された少数のカメラからの追跡を行う。
マルチブランチネットワークを使用して、環境中のすべての人に3Dポーズと再識別機能(Re-ID)を共同で推定する。
これは、Shelf、Campus、CMU Panopticの3つの公開データセットに対して、最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-08-05T08:35:44Z) - Accurate 3D Hand Pose Estimation for Whole-Body 3D Human Mesh Estimation [70.23652933572647]
全体3次元メッシュ推定は、3次元の人体、手、顔を同時に再構築することを目的としている。
我々はHand4Wholeを紹介します。
我々のHand4Wholeはエンドツーエンドで訓練されており、これまでの全身の3Dメッシュ推定方法よりもはるかに優れた3Dハンド結果を生成する。
論文 参考訳(メタデータ) (2020-11-23T16:48:35Z) - GRAB: A Dataset of Whole-Body Human Grasping of Objects [53.00728704389501]
人間の把握を理解するためのコンピュータの訓練には、複雑な3Dオブジェクトの形状、詳細な接触情報、ポーズと形状、時間の経過とともに3Dボディの動きを含む豊富なデータセットが必要である。
全身の3次元形状を含むGRABと呼ばれる新しいデータセットを収集し、形状と大きさの異なる51の日常的な物体と相互作用する10人の被験者のシーケンスを合成する。
これは、人間がオブジェクトをつかみ、操作する方法、全身がどのように関与し、どのように相互作用がタスクによって異なるかを理解するために、既存のデータセットをはるかに超えています。
論文 参考訳(メタデータ) (2020-08-25T17:57:55Z) - Towards Generalization of 3D Human Pose Estimation In The Wild [73.19542580408971]
3DBodyTex.Poseは、3Dの人間のポーズ推定のタスクに対処するデータセットである。
3DBodyTex.Poseは、さまざまな衣服やポーズで405種類の実際の被写体を含む高品質でリッチなデータを提供する。
論文 参考訳(メタデータ) (2020-04-21T13:31:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。