論文の概要: Whole-Body Human Pose Estimation in the Wild
- arxiv url: http://arxiv.org/abs/2007.11858v1
- Date: Thu, 23 Jul 2020 08:35:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 12:40:29.100574
- Title: Whole-Body Human Pose Estimation in the Wild
- Title(参考訳): 野生動物における全身人間のポーズ推定
- Authors: Sheng Jin, Lumin Xu, Jin Xu, Can Wang, Wentao Liu, Chen Qian, Wanli
Ouyang, Ping Luo
- Abstract要約: COCO-WholeBodyは、全体アノテーションでCOCOデータセットを拡張する。
これは人体全体に手動のアノテーションがある最初のベンチマークである。
ZoomNetという名前のシングルネットワークモデルは、完全な人体の階層構造を考慮するために考案された。
- 参考スコア(独自算出の注目度): 88.09875133989155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the task of 2D human whole-body pose estimation,
which aims to localize dense landmarks on the entire human body including face,
hands, body, and feet. As existing datasets do not have whole-body annotations,
previous methods have to assemble different deep models trained independently
on different datasets of the human face, hand, and body, struggling with
dataset biases and large model complexity. To fill in this blank, we introduce
COCO-WholeBody which extends COCO dataset with whole-body annotations. To our
best knowledge, it is the first benchmark that has manual annotations on the
entire human body, including 133 dense landmarks with 68 on the face, 42 on
hands and 23 on the body and feet. A single-network model, named ZoomNet, is
devised to take into account the hierarchical structure of the full human body
to solve the scale variation of different body parts of the same person.
ZoomNet is able to significantly outperform existing methods on the proposed
COCO-WholeBody dataset. Extensive experiments show that COCO-WholeBody not only
can be used to train deep models from scratch for whole-body pose estimation
but also can serve as a powerful pre-training dataset for many different tasks
such as facial landmark detection and hand keypoint estimation. The dataset is
publicly available at https://github.com/jin-s13/COCO-WholeBody.
- Abstract(参考訳): 本研究では、顔、手、体、足など、人体全体に密集したランドマークを局在させることを目的とした2次元人体ポーズ推定の課題について検討する。
既存のデータセットには全体アノテーションがないため、以前の方法では、データセットバイアスと大きなモデルの複雑さに苦しむ、人間の顔、手、体の異なるデータセットで独立して訓練された異なるディープモデルを組み立てなければなりません。
この空白を埋めるために,COCOデータセットを全身アノテーションで拡張するCOCO-WholeBodyを導入する。
私たちの知る限りでは、顔に68個、手に42個、足に23個の密集したランドマークを含む、人体全体に手書きの注釈を付けた最初のベンチマークです。
zoomnetと呼ばれる単一ネットワークモデルは、人体の階層構造を考慮に入れ、同一人物の異なる身体部位のスケール変化を解決するために考案された。
ZoomNetは、提案されているCOCO-WholeBodyデータセットで既存のメソッドを大幅に上回ることができる。
広範な実験により、cocowholebodyは、全身ポーズ推定のためにスクラッチからディープラーニングをトレーニングするだけでなく、顔のランドマーク検出や手指キーポイント推定など、多くのタスクで強力な事前トレーニングデータセットとして機能することが示された。
データセットはhttps://github.com/jin-s13/COCO-WholeBodyで公開されている。
関連論文リスト
- MUC: Mixture of Uncalibrated Cameras for Robust 3D Human Body Reconstruction [12.942635715952525]
複数のカメラは、人物の包括的なマルチビュービデオカバレッジを提供することができる。
以前の研究では、複数の視点の下で自己排除によって生じる課題を見落としていた。
複数のカメラビューから3次元人体を再構築する手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T05:03:25Z) - Learning 3D Human Pose Estimation from Dozens of Datasets using a
Geometry-Aware Autoencoder to Bridge Between Skeleton Formats [80.12253291709673]
本稿では,アフィン結合型オートエンコーダ(ACAE)法を提案する。
このアプローチは、28人の人間のポーズデータセットを使って1つのモデルを監督する、極端なマルチデータセット体制にスケールします。
論文 参考訳(メタデータ) (2022-12-29T22:22:49Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - H3WB: Human3.6M 3D WholeBody Dataset and Benchmark [15.472137969924457]
人体全体の3次元ポーズ推定のためのベンチマークを示す。
現在、完全に注釈付きで正確な3Dボディデータセットがないため、ディープネットワークは特定のボディパーツで個別にトレーニングされる。
我々はHuman3.6Mデータセットに全身アノテーションを提供するHuman3.6M 3D WholeBodyデータセットを紹介した。
論文 参考訳(メタデータ) (2022-11-28T19:00:02Z) - ZoomNAS: Searching for Whole-body Human Pose Estimation in the Wild [97.0025378036642]
本研究では,全身の階層構造を考慮したシングルネットワーク方式ZoomNetを提案する。
また,全身のポーズ推定の精度と効率を両立させるために,ZoomNASと呼ばれるニューラルネットワーク検索フレームワークを提案する。
ZoomNASをトレーニングし,評価するために,最初の大規模2次元人体データセットであるCOCO-WholeBody V1.0を導入する。
論文 参考訳(メタデータ) (2022-08-23T16:33:57Z) - Learning Visibility for Robust Dense Human Body Estimation [78.37389398573882]
2D画像から3Dのポーズと形状を推定することは、非常に難しい課題だ。
部分的な観察に頑健な高密度な人体推定を学習する。
我々は、高密度UV通信から可視性ラベルの擬似基底構造を取得し、3次元座標とともに可視性を予測するニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2022-08-23T00:01:05Z) - HPRNet: Hierarchical Point Regression for Whole-Body Human Pose
Estimation [13.198689566654108]
全身ポーズ推定のためのボトムアップワンステージ手法を提案する。
我々は、身体部分の階層的な表現を構築し、それらを共同で補強する。
COCO WholeBodyデータセットでは、HPRNetは以前のボトムアップメソッドを著しく上回っている。
論文 参考訳(メタデータ) (2021-06-08T11:56:38Z) - Monocular Real-time Full Body Capture with Inter-part Correlations [66.22835689189237]
本稿では,体と手の形状と運動を1色画像から動的3次元顔モデルと共に推定する,実時間フルボディキャプチャの最初の手法を提案する。
提案手法では,体と手の相関を高い計算効率で活用する新しいニューラルネットワークアーキテクチャを用いる。
論文 参考訳(メタデータ) (2020-12-11T02:37:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。