論文の概要: Camera Motion Agnostic 3D Human Pose Estimation
- arxiv url: http://arxiv.org/abs/2112.00343v1
- Date: Wed, 1 Dec 2021 08:22:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 14:33:41.715842
- Title: Camera Motion Agnostic 3D Human Pose Estimation
- Title(参考訳): カメラ動作非依存3次元ポーズ推定
- Authors: Seong Hyun Kim, Sunwon Jeong, Sungbum Park, Ju Yong Chang
- Abstract要約: 本稿では,世界座標系で定義された3次元人間のポーズとメッシュを予測するためのカメラモーション非依存アプローチを提案する。
本稿では,局所的なポーズ列から大域的な動き列を予測する双方向ゲート再帰単位(GRU)に基づくネットワークを提案する。
移動カメラ環境において構築された3DPWと合成データセットを用いて評価を行う。
- 参考スコア(独自算出の注目度): 8.090223360924004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although the performance of 3D human pose and shape estimation methods has
improved significantly in recent years, existing approaches typically generate
3D poses defined in camera or human-centered coordinate system. This makes it
difficult to estimate a person's pure pose and motion in world coordinate
system for a video captured using a moving camera. To address this issue, this
paper presents a camera motion agnostic approach for predicting 3D human pose
and mesh defined in the world coordinate system. The core idea of the proposed
approach is to estimate the difference between two adjacent global poses (i.e.,
global motion) that is invariant to selecting the coordinate system, instead of
the global pose coupled to the camera motion. To this end, we propose a network
based on bidirectional gated recurrent units (GRUs) that predicts the global
motion sequence from the local pose sequence consisting of relative rotations
of joints called global motion regressor (GMR). We use 3DPW and synthetic
datasets, which are constructed in a moving-camera environment, for evaluation.
We conduct extensive experiments and prove the effectiveness of the proposed
method empirically. Code and datasets are available at
https://github.com/seonghyunkim1212/GMR
- Abstract(参考訳): 近年,3次元ポーズと形状推定法の性能は著しく改善されているが,既存のアプローチではカメラや人中心座標系で定義された3次元ポーズを生成するのが一般的である。
これにより、動くカメラで撮影したビデオの世界の座標系における人の純粋なポーズと動きを推定することが困難になる。
この問題に対処するために,世界座標系で定義された3次元人間のポーズとメッシュを予測するためのカメラモーション非依存アプローチを提案する。
提案手法の中核となる考え方は、カメラの動きに結合されたグローバルなポーズではなく、座標系の選択に不変な隣接する2つのグローバルなポーズ(すなわちグローバルな動き)の違いを推定することである。
そこで本研究では,GMR(Global Motion Regressor)と呼ばれる関節の相対回転からなる局所的なポーズ列から,大域的な動き列を予測できる双方向ゲートリカレントユニット(GRU)に基づくネットワークを提案する。
移動カメラ環境において構築された3DPWと合成データセットを用いて評価を行う。
提案手法の有効性を実証的に検証し,実験を行った。
コードとデータセットはhttps://github.com/seonghyunkim1212/gmrで入手できる。
関連論文リスト
- World-Grounded Human Motion Recovery via Gravity-View Coordinates [60.618543026949226]
本研究では,新しい重力-視座標系における人間のポーズ推定手法を提案する。
提案したGVシステムは、ビデオフレーム毎に自然に重力に整合し、一意に定義されている。
提案手法は,カメラ空間と地上設定の両方でよりリアルな動きを再現し,精度と速度の両方で最先端の手法より優れる。
論文 参考訳(メタデータ) (2024-09-10T17:25:47Z) - WHAC: World-grounded Humans and Cameras [37.877565981937586]
我々は,表現的パラメトリック人間モデル(SMPL-X)と対応するカメラのポーズを共同で再現することを目指している。
WHACと呼ばれる新しいフレームワークを導入し、世界規模で表現された人間のポーズと形状の推定を容易にする。
我々は、正確に注釈付けされた人間とカメラを含む新しい合成データセットWHAC-A-Moleを提案する。
論文 参考訳(メタデータ) (2024-03-19T17:58:02Z) - GLAMR: Global Occlusion-Aware Human Mesh Recovery with Dynamic Cameras [99.07219478953982]
ダイナミックカメラで記録したモノクロビデオから3次元グローバルなヒューマンメッシュリカバリのためのアプローチを提案する。
われわれはまず,視覚的動作に基づいて隠蔽されたヒトの身体運動を自己回帰的に埋め込む,深部再生運動充填装置を提案する。
従来の研究とは対照的に,我々の手法はダイナミックカメラを用いても,一貫したグローバル座標で人間のメッシュを再構築する。
論文 参考訳(メタデータ) (2021-12-02T18:59:54Z) - 3D Pose Estimation and Future Motion Prediction from 2D Images [26.28886209268217]
本稿では,3次元人物のポーズを推定し,RGB画像列から将来の3次元動作を予測するという,高相関な課題に共同で取り組むことを検討する。
リー代数のポーズ表現に基づいて、人間の運動キネマティクスを自然に保存する新しい自己投射機構が提案されている。
論文 参考訳(メタデータ) (2021-11-26T01:02:00Z) - VoxelTrack: Multi-Person 3D Human Pose Estimation and Tracking in the
Wild [98.69191256693703]
本稿では,VoxelTrackを用いて,多人数の3次元ポーズ推定と,広義のベースラインで分離された少数のカメラからの追跡を行う。
マルチブランチネットワークを使用して、環境中のすべての人に3Dポーズと再識別機能(Re-ID)を共同で推定する。
これは、Shelf、Campus、CMU Panopticの3つの公開データセットに対して、最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-08-05T08:35:44Z) - Improving Robustness and Accuracy via Relative Information Encoding in
3D Human Pose Estimation [59.94032196768748]
位置および時間的拡張表現を出力する相対情報符号化法を提案する。
提案手法は2つの公開データセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-07-29T14:12:19Z) - Multi-View Multi-Person 3D Pose Estimation with Plane Sweep Stereo [71.59494156155309]
既存のマルチビュー3Dポーズ推定手法は、複数のカメラビューからグループ2Dポーズ検出に対するクロスビュー対応を明確に確立する。
平面スイープステレオに基づくマルチビュー3Dポーズ推定手法を提案し、クロスビュー融合と3Dポーズ再構築を1ショットで共同で解決します。
論文 参考訳(メタデータ) (2021-04-06T03:49:35Z) - Exploring Severe Occlusion: Multi-Person 3D Pose Estimation with Gated
Convolution [34.301501457959056]
本稿では,2次元関節を3次元に変換するために,ゲート型畳み込みモジュールを用いた時間回帰ネットワークを提案する。
また, 正規化ポーズを大域軌跡に変換するために, 単純かつ効果的な局所化手法も実施した。
提案手法は,最先端の2D-to-3Dポーズ推定法よりも優れている。
論文 参考訳(メタデータ) (2020-10-31T04:35:24Z) - VoxelPose: Towards Multi-Camera 3D Human Pose Estimation in Wild
Environment [80.77351380961264]
複数のカメラビューから複数の人の3Dポーズを推定する手法を提案する。
本稿では,3D空間で動作するエンドツーエンドのソリューションを提案する。
本稿では,各提案の詳細な3次元ポーズを推定するために,Pose Regression Network (PRN)を提案する。
論文 参考訳(メタデータ) (2020-04-13T23:50:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。