論文の概要: H3WB: Human3.6M 3D WholeBody Dataset and Benchmark
- arxiv url: http://arxiv.org/abs/2211.15692v2
- Date: Wed, 6 Sep 2023 12:22:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 19:57:21.587246
- Title: H3WB: Human3.6M 3D WholeBody Dataset and Benchmark
- Title(参考訳): h3wb:human3.6mの3dデータセットとベンチマーク
- Authors: Yue Zhu, Nermin Samet, David Picard
- Abstract要約: 人体全体の3次元ポーズ推定のためのベンチマークを示す。
現在、完全に注釈付きで正確な3Dボディデータセットがないため、ディープネットワークは特定のボディパーツで個別にトレーニングされる。
我々はHuman3.6Mデータセットに全身アノテーションを提供するHuman3.6M 3D WholeBodyデータセットを紹介した。
- 参考スコア(独自算出の注目度): 15.472137969924457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a benchmark for 3D human whole-body pose estimation, which
involves identifying accurate 3D keypoints on the entire human body, including
face, hands, body, and feet. Currently, the lack of a fully annotated and
accurate 3D whole-body dataset results in deep networks being trained
separately on specific body parts, which are combined during inference. Or they
rely on pseudo-groundtruth provided by parametric body models which are not as
accurate as detection based methods. To overcome these issues, we introduce the
Human3.6M 3D WholeBody (H3WB) dataset, which provides whole-body annotations
for the Human3.6M dataset using the COCO Wholebody layout. H3WB comprises 133
whole-body keypoint annotations on 100K images, made possible by our new
multi-view pipeline. We also propose three tasks: i) 3D whole-body pose lifting
from 2D complete whole-body pose, ii) 3D whole-body pose lifting from 2D
incomplete whole-body pose, and iii) 3D whole-body pose estimation from a
single RGB image. Additionally, we report several baselines from popular
methods for these tasks. Furthermore, we also provide automated 3D whole-body
annotations of TotalCapture and experimentally show that when used with H3WB it
helps to improve the performance. Code and dataset is available at
https://github.com/wholebody3d/wholebody3d
- Abstract(参考訳): 本稿では、顔、手、体、足など、人体全体の正確な3dキーポイントを識別する3d人体全体のポーズ推定のためのベンチマークを提案する。
現在、完全に注釈付きで正確な3Dボディデータセットがないため、深層ネットワークは推論時に組み合わせられた特定の身体部位で個別に訓練される。
あるいは、検出ベースの方法ほど正確ではないパラメトリックなボディモデルによって提供される疑似接地を頼りにしている。
これらの問題を克服するために、COCO Wholebodyレイアウトを使用して、Human3.6Mデータセットに全身アノテーションを提供するHuman3.6M 3D WholeBody(H3WB)データセットを紹介した。
H3WBは100K画像上の133の全身キーポイントアノテーションで構成されており、新しいマルチビューパイプラインで可能になっている。
3つのタスクも提案します
一 2次元完全全身ポーズから持ち上げる3次元全身ポーズ
二 2次元不完全な全身ポーズから持ち上げる3次元全身ポーズ、及び
三 単一のRGB画像から全身の3次元ポーズ推定
さらに,これらの課題に対する一般的な手法のベースラインをいくつか報告する。
さらに,トータルキャプチャの3次元アノテーションも自動で提供し,h3wbでの使用がパフォーマンスの向上に役立つことを実験的に示す。
コードとデータセットはhttps://github.com/wholebody3d/wholebody3dで入手できる。
関連論文リスト
- Decanus to Legatus: Synthetic training for 2D-3D human pose lifting [26.108023246654646]
10個の手作り3Dポーズ(Decanus)に基づく3Dポーズ分布から無限個の合成人間のポーズ(Legatus)を生成するアルゴリズムを提案する。
この結果から,特定データセットの実際のデータを用いた手法に匹敵する3次元ポーズ推定性能を,ゼロショット設定で実現し,フレームワークの可能性を示した。
論文 参考訳(メタデータ) (2022-10-05T13:10:19Z) - Accurate 3D Body Shape Regression using Metric and Semantic Attributes [55.58629009876271]
画像からの3次元身体形状の回帰は、人文計測や言語的形状特性から訓練できることを示す。
これは、画像から3次元の身体形状の回帰を、容易に測定できる人文計測と言語的形状特性から訓練できる最初の実演である。
論文 参考訳(メタデータ) (2022-06-14T17:54:49Z) - Tracking People with 3D Representations [78.97070307547283]
ビデオ中の複数の人物を追跡する新しい手法を提案する。
従来の2次元表現を用いたアプローチとは違って,3次元空間における人物の3次元表現を用いる。
これらの環境下での3次元表現は2次元表現よりも効果的であることがわかった。
論文 参考訳(メタデータ) (2021-11-15T16:15:21Z) - Learning Temporal 3D Human Pose Estimation with Pseudo-Labels [3.0954251281114513]
自己監督型3次元ポーズ推定のための簡易かつ効果的なアプローチを提案する。
我々は、マルチビューカメラシステムの2Dボディポーズ推定を三角測量に頼っている。
提案手法はHuman3.6MとMPI-INF-3DHPベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-10-14T17:40:45Z) - VoxelTrack: Multi-Person 3D Human Pose Estimation and Tracking in the
Wild [98.69191256693703]
本稿では,VoxelTrackを用いて,多人数の3次元ポーズ推定と,広義のベースラインで分離された少数のカメラからの追跡を行う。
マルチブランチネットワークを使用して、環境中のすべての人に3Dポーズと再識別機能(Re-ID)を共同で推定する。
これは、Shelf、Campus、CMU Panopticの3つの公開データセットに対して、最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-08-05T08:35:44Z) - Accurate 3D Hand Pose Estimation for Whole-Body 3D Human Mesh Estimation [70.23652933572647]
全体3次元メッシュ推定は、3次元の人体、手、顔を同時に再構築することを目的としている。
我々はHand4Wholeを紹介します。
我々のHand4Wholeはエンドツーエンドで訓練されており、これまでの全身の3Dメッシュ推定方法よりもはるかに優れた3Dハンド結果を生成する。
論文 参考訳(メタデータ) (2020-11-23T16:48:35Z) - GRAB: A Dataset of Whole-Body Human Grasping of Objects [53.00728704389501]
人間の把握を理解するためのコンピュータの訓練には、複雑な3Dオブジェクトの形状、詳細な接触情報、ポーズと形状、時間の経過とともに3Dボディの動きを含む豊富なデータセットが必要である。
全身の3次元形状を含むGRABと呼ばれる新しいデータセットを収集し、形状と大きさの異なる51の日常的な物体と相互作用する10人の被験者のシーケンスを合成する。
これは、人間がオブジェクトをつかみ、操作する方法、全身がどのように関与し、どのように相互作用がタスクによって異なるかを理解するために、既存のデータセットをはるかに超えています。
論文 参考訳(メタデータ) (2020-08-25T17:57:55Z) - Towards Generalization of 3D Human Pose Estimation In The Wild [73.19542580408971]
3DBodyTex.Poseは、3Dの人間のポーズ推定のタスクに対処するデータセットである。
3DBodyTex.Poseは、さまざまな衣服やポーズで405種類の実際の被写体を含む高品質でリッチなデータを提供する。
論文 参考訳(メタデータ) (2020-04-21T13:31:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。