論文の概要: 3DCrowdNet: 2D Human Pose-Guided3D Crowd Human Pose and Shape Estimation
in the Wild
- arxiv url: http://arxiv.org/abs/2104.07300v1
- Date: Thu, 15 Apr 2021 08:21:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 02:10:12.993708
- Title: 3DCrowdNet: 2D Human Pose-Guided3D Crowd Human Pose and Shape Estimation
in the Wild
- Title(参考訳): 3DCrowdNet: 野生における2D Pose-Guided3D Crowd Human Poseと形状推定
- Authors: Hongsuk Choi, Gyeongsik Moon, JoonKyu Park, Kyoung Mu Lee
- Abstract要約: 3DCrowdNetは、2D人間のポーズガイド3D群衆ポーズと形状推定システムです。
我々の3DCrowdNetは、これまでのクラウドシーンの手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 61.92656990496212
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recovering accurate 3D human pose and shape from in-the-wild crowd scenes is
highly challenging and barely studied, despite their common presence. In this
regard, we present 3DCrowdNet, a 2D human pose-guided 3D crowd pose and shape
estimation system for in-the-wild scenes. 2D human pose estimation methods
provide relatively robust outputs on crowd scenes than 3D human pose estimation
methods, as they can exploit in-the-wild multi-person 2D datasets that include
crowd scenes. On the other hand, the 3D methods leverage 3D datasets, of which
images mostly contain a single actor without a crowd. The train data difference
impedes the 3D methods' ability to focus on a target person in in-the-wild
crowd scenes. Thus, we design our system to leverage the robust 2D pose outputs
from off-the-shelf 2D pose estimators, which guide a network to focus on a
target person and provide essential human articulation information. We show
that our 3DCrowdNet outperforms previous methods on in-the-wild crowd scenes.
We will release the codes.
- Abstract(参考訳): 観客のシーンから正確な3Dのポーズと形状を復元することは、共通の存在にもかかわらず非常に困難であり、ほとんど研究されていない。
そこで,本稿では,3dポーズ誘導型3d群衆ポーズ推定システムである3dcrowdnetを提案する。
2次元人格推定手法は、群衆シーンを含む多人数2次元データセットを活用できるため、3次元人格推定法よりも群衆シーンにおける比較的頑健な出力を提供する。
一方、3D手法は3Dデータセットを利用しており、画像の大部分は群衆のない1人のアクターを含んでいる。
列車データの違いは、3Dメソッドが目標人物に焦点を合わせる能力を妨げている。
そこで,本研究では,対象人物に焦点をあて,人間に不可欠な情報を提供するネットワークを誘導する,市販の2Dポーズ推定装置からのロバストな2Dポーズ出力を利用するシステムの設計を行った。
我々の3DCrowdNetは、これまでの観客シーンよりも優れていた。
コードをリリースします。
関連論文リスト
- MPL: Lifting 3D Human Pose from Multi-view 2D Poses [75.26416079541723]
本稿では,大規模かつリッチなトレーニングデータセットが存在する2次元ポーズ推定と,トランスフォーマーネットワークを用いた2次元から3次元ポーズリフトを提案する。
実験の結果,MPJPEの誤差は2次元ポーズを三角測量した3次元ポーズと比較して最大45%減少することがわかった。
論文 参考訳(メタデータ) (2024-08-20T12:55:14Z) - MPM: A Unified 2D-3D Human Pose Representation via Masked Pose Modeling [59.74064212110042]
mpmcanは、3D人間のポーズ推定、クラッドされた2Dポーズからの3Dポーズ推定、3Dポーズ完了をtextocbsingleフレームワークで処理する。
MPI-INF-3DHPにおいて、広く使われているポーズデータセットの広範な実験とアブレーション研究を行い、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-06-29T10:30:00Z) - Scene-Aware 3D Multi-Human Motion Capture from a Single Camera [83.06768487435818]
静止カメラで記録された1枚のRGBビデオから、シーン内の複数の人間の3次元位置を推定し、その身体形状と調音を推定する問題を考察する。
コンピュータビジョンの最近の進歩を,2次元の人体関節,関節角度,正規化不均等マップ,人間のセグメンテーションマスクなど,様々なモダリティのための大規模事前訓練モデルを用いて活用している。
特に,2次元の関節と関節角度を用いた正規化不均等予測から,シーン深度とユニークな人格尺度を推定する。
論文 参考訳(メタデータ) (2023-01-12T18:01:28Z) - Multi-person 3D pose estimation from unlabelled data [2.54990557236581]
シナリオ内の人々の横断的な対応を予測できるグラフニューラルネットワークに基づくモデルを提案する。
また、各人物の3Dポーズを生成するために2Dポイントを利用する多層パーセプトロンも提示する。
論文 参考訳(メタデータ) (2022-12-16T22:03:37Z) - SPGNet: Spatial Projection Guided 3D Human Pose Estimation in Low
Dimensional Space [14.81199315166042]
本研究では,多次元再投影と教師あり学習を混合した3次元人間のポーズ推定手法を提案する。
提案手法は,データセットHuman3.6Mの推定結果に基づいて,定性的にも定量的にも,多くの最先端手法より優れている。
論文 参考訳(メタデータ) (2022-06-04T00:51:00Z) - Gait Recognition in the Wild with Dense 3D Representations and A
Benchmark [86.68648536257588]
既存の歩行認識の研究は、制約されたシーンにおける人間の体のシルエットや骨格のような2D表現によって支配されている。
本稿では,野生における歩行認識のための高密度な3次元表現の探索を目的とする。
大規模な3D表現に基づく歩行認識データセットGait3Dを構築した。
論文 参考訳(メタデータ) (2022-04-06T03:54:06Z) - ElePose: Unsupervised 3D Human Pose Estimation by Predicting Camera
Elevation and Learning Normalizing Flows on 2D Poses [23.554957518485324]
本研究では、1つの画像から3次元人間のポーズを予測することを学ぶ教師なしのアプローチを提案する。
ランダムなプロジェクションに最も近い3次元ポーズを推定し、2次元ポーズの正規化フローを用いて推定する。
我々は,Human3.6M と MPI-INF-3DHP のベンチマークデータセット上で,最先端の教師なしポーズ推定手法を多くの指標で上回っている。
論文 参考訳(メタデータ) (2021-12-14T01:12:45Z) - Lifting 2D Human Pose to 3D with Domain Adapted 3D Body Concept [49.49032810966848]
既存の3Dポーズ推定は,1)2Dデータと3Dデータとのあいまいさ,2)よくラベル付けされた2D-3Dポーズペアの欠如に悩まされている。
本研究では,人体の3次元概念を学習するためにラベル付き3次元ポーズを利用する新しい枠組みを提案する。
2つのドメインに適応することにより、3Dポーズから学んだ身体知識を2Dポーズに適用し、2Dポーズエンコーダを誘導し、ポーズリフトに埋め込まれた情報的な3D"想像"を生成する。
論文 参考訳(メタデータ) (2021-11-23T16:02:12Z) - AnimePose: Multi-person 3D pose estimation and animation [9.323689681059504]
動作中の人間の3Dアニメーションは、人体全体に複数のモーショントラッカーを配置して、すべての手足の動きを追跡するため、非常に難しい。
これは時間がかかり、運動センサー付きエキソスケルトンボディスーツの着用が不快になる可能性がある。
深層学習を用いた2次元映像から複数の人物の3次元アニメーションを生成する方法を提案する。
論文 参考訳(メタデータ) (2020-02-06T11:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。