論文の概要: Estimating Egocentric 3D Human Pose in Global Space
- arxiv url: http://arxiv.org/abs/2104.13454v1
- Date: Tue, 27 Apr 2021 20:01:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 12:51:33.391782
- Title: Estimating Egocentric 3D Human Pose in Global Space
- Title(参考訳): 地球空間におけるエゴセントリックな3D空間の推定
- Authors: Jian Wang and Lingjie Liu and Weipeng Xu and Kripasindhu Sarkar and
Christian Theobalt
- Abstract要約: 本稿では,魚眼カメラを用いた自己中心型3次元体姿勢推定法を提案する。
提案手法は, 定量的, 定性的に, 最先端の手法より優れている。
- 参考スコア(独自算出の注目度): 70.7272154474722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Egocentric 3D human pose estimation using a single fisheye camera has become
popular recently as it allows capturing a wide range of daily activities in
unconstrained environments, which is difficult for traditional outside-in
motion capture with external cameras. However, existing methods have several
limitations. A prominent problem is that the estimated poses lie in the local
coordinate system of the fisheye camera, rather than in the world coordinate
system, which is restrictive for many applications. Furthermore, these methods
suffer from limited accuracy and temporal instability due to ambiguities caused
by the monocular setup and the severe occlusion in a strongly distorted
egocentric perspective. To tackle these limitations, we present a new method
for egocentric global 3D body pose estimation using a single head-mounted
fisheye camera. To achieve accurate and temporally stable global poses, a
spatio-temporal optimization is performed over a sequence of frames by
minimizing heatmap reprojection errors and enforcing local and global body
motion priors learned from a mocap dataset. Experimental results show that our
approach outperforms state-of-the-art methods both quantitatively and
qualitatively.
- Abstract(参考訳): 単一魚眼カメラを用いたエゴセントリックな3Dポーズ推定は、外部カメラを用いた従来の外付けモーションキャプチャでは難しい、制約のない環境での幅広い日常活動のキャプチャを可能にすることで、近年人気が高まっている。
しかし、既存の方法にはいくつかの制限がある。
顕著な問題は、推定されたポーズが、多くの用途で制限される世界座標系ではなく、魚眼カメラの局所座標系にあることである。
さらに, 本手法は, モノキュラー設定によるあいまいさと, 強く歪んだエゴセントリックな視点での重度の咬合により, 精度と時間的不安定さに苦しむ。
そこで本研究では, 頭部搭載魚眼カメラを用いた自己中心型3d体姿勢推定法を提案する。
高精度で時間的に安定したグローバルポーズを実現するため、ヒートマップ再投射誤差を最小化し、モカプデータセットから学習した局所的および大域的身体運動先行を強制することにより、フレーム列上で時空間最適化を行う。
実験の結果,本手法は定量的にも質的にも最先端の手法よりも優れていることがわかった。
関連論文リスト
- WHAC: World-grounded Humans and Cameras [37.877565981937586]
我々は,表現的パラメトリック人間モデル(SMPL-X)と対応するカメラのポーズを共同で再現することを目指している。
WHACと呼ばれる新しいフレームワークを導入し、世界規模で表現された人間のポーズと形状の推定を容易にする。
我々は、正確に注釈付けされた人間とカメラを含む新しい合成データセットWHAC-A-Moleを提案する。
論文 参考訳(メタデータ) (2024-03-19T17:58:02Z) - W-HMR: Monocular Human Mesh Recovery in World Space with Weak-Supervised Calibration [57.37135310143126]
モノクロ画像からの3次元運動回復のための従来の手法は、カメラ座標に依存するため、しばしば不足する。
W-HMRは、身体の歪み情報に基づいて「適切な」焦点長を予測する弱教師付き校正法である。
また,世界空間における可視的再構築のために,身体の向きを補正する OrientCorrect モジュールを提案する。
論文 参考訳(メタデータ) (2023-11-29T09:02:07Z) - Egocentric Whole-Body Motion Capture with FisheyeViT and Diffusion-Based
Motion Refinement [65.08165593201437]
本研究では,人体と手の動きを同時に推定する単一魚眼カメラを用いて,自我中心型全体モーションキャプチャーを探索する。
この課題は、高品質なデータセットの欠如、魚眼カメラの歪み、人間の身体の自己閉塞など、重大な課題を提起する。
そこで本研究では,魚眼画像の特徴を3次元人体ポーズ予測のための3次元熱マップ表現に変換した魚眼画像の特徴を抽出する手法を提案する。
論文 参考訳(メタデータ) (2023-11-28T07:13:47Z) - Scene-Aware 3D Multi-Human Motion Capture from a Single Camera [83.06768487435818]
静止カメラで記録された1枚のRGBビデオから、シーン内の複数の人間の3次元位置を推定し、その身体形状と調音を推定する問題を考察する。
コンピュータビジョンの最近の進歩を,2次元の人体関節,関節角度,正規化不均等マップ,人間のセグメンテーションマスクなど,様々なモダリティのための大規模事前訓練モデルを用いて活用している。
特に,2次元の関節と関節角度を用いた正規化不均等予測から,シーン深度とユニークな人格尺度を推定する。
論文 参考訳(メタデータ) (2023-01-12T18:01:28Z) - Weakly Supervised 3D Multi-person Pose Estimation for Large-scale Scenes
based on Monocular Camera and Single LiDAR [41.39277657279448]
大規模シーンにおける3次元多人数ポーズ推定のためのモノクロカメラとLiDARによる単一手法を提案する。
具体的には,画像や点クラウドを含むマルチモーダル入力データを活用するための効果的な融合戦略を設計する。
本手法は, 点雲の固有な幾何学的制約を自己監督のために利用し, 画像上の2次元キーポイントを弱監督のために利用する。
論文 参考訳(メタデータ) (2022-11-30T12:50:40Z) - GLAMR: Global Occlusion-Aware Human Mesh Recovery with Dynamic Cameras [99.07219478953982]
ダイナミックカメラで記録したモノクロビデオから3次元グローバルなヒューマンメッシュリカバリのためのアプローチを提案する。
われわれはまず,視覚的動作に基づいて隠蔽されたヒトの身体運動を自己回帰的に埋め込む,深部再生運動充填装置を提案する。
従来の研究とは対照的に,我々の手法はダイナミックカメラを用いても,一貫したグローバル座標で人間のメッシュを再構築する。
論文 参考訳(メタデータ) (2021-12-02T18:59:54Z) - SelfPose: 3D Egocentric Pose Estimation from a Headset Mounted Camera [97.0162841635425]
頭部装着型VR装置の縁に設置した下向きの魚眼カメラから撮影した単眼画像から,エゴセントリックな3Dボディポーズ推定法を提案する。
この特異な視点は、厳密な自己閉塞と視点歪みを伴う、独特の視覚的な外観のイメージに繋がる。
本稿では,2次元予測の不確実性を考慮した新しいマルチブランチデコーダを用いたエンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-02T16:18:06Z) - Exploring Severe Occlusion: Multi-Person 3D Pose Estimation with Gated
Convolution [34.301501457959056]
本稿では,2次元関節を3次元に変換するために,ゲート型畳み込みモジュールを用いた時間回帰ネットワークを提案する。
また, 正規化ポーズを大域軌跡に変換するために, 単純かつ効果的な局所化手法も実施した。
提案手法は,最先端の2D-to-3Dポーズ推定法よりも優れている。
論文 参考訳(メタデータ) (2020-10-31T04:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。