論文の概要: Gravity-Aware Monocular 3D Human-Object Reconstruction
- arxiv url: http://arxiv.org/abs/2108.08844v1
- Date: Thu, 19 Aug 2021 17:59:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-20 14:27:11.030833
- Title: Gravity-Aware Monocular 3D Human-Object Reconstruction
- Title(参考訳): 重力アウェアモノクラー3次元物体再構成
- Authors: Rishabh Dabral and Soshi Shimada and Arjun Jain and Christian Theobalt
and Vladislav Golyanik
- Abstract要約: 本稿では,共同マーカーレス3次元モーションキャプチャとモノクロRGB映像からの物体軌跡推定のための新しい手法を提案する。
自由飛行中に部分的に観察された物体を含むシーンに焦点を当てた。
実験では, 各種計測値を用いた3次元モーションキャプチャにおいて, 最先端の精度を実現する。
- 参考スコア(独自算出の注目度): 73.25185274561139
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes GraviCap, i.e., a new approach for joint markerless 3D
human motion capture and object trajectory estimation from monocular RGB
videos. We focus on scenes with objects partially observed during a free
flight. In contrast to existing monocular methods, we can recover scale, object
trajectories as well as human bone lengths in meters and the ground plane's
orientation, thanks to the awareness of the gravity constraining object
motions. Our objective function is parametrised by the object's initial
velocity and position, gravity direction and focal length, and jointly
optimised for one or several free flight episodes. The proposed human-object
interaction constraints ensure geometric consistency of the 3D reconstructions
and improved physical plausibility of human poses compared to the unconstrained
case. We evaluate GraviCap on a new dataset with ground-truth annotations for
persons and different objects undergoing free flights. In the experiments, our
approach achieves state-of-the-art accuracy in 3D human motion capture on
various metrics. We urge the reader to watch our supplementary video. Both the
source code and the dataset are released; see
http://4dqv.mpi-inf.mpg.de/GraviCap/.
- Abstract(参考訳): 本稿では,モノクラーRGBビデオからの3次元人体モーションキャプチャと物体軌道推定のための新しいアプローチであるGraviCapを提案する。
自由飛行中に部分的に観察された物体を含むシーンに焦点を当てた。
既存の単眼法とは対照的に、物体の動きを拘束する重力の認識によって、スケールや物体の軌跡、メートルの人間の骨の長さ、地平面の向きを復元することができる。
我々の目的関数は、物体の初期速度と位置、重力方向と焦点距離によってパラメトリされ、1つまたは複数のフリーフライトエピソードに対して共同最適化される。
提案するヒューマン・オブジェクト間インタラクション制約により,3次元再構成の幾何学的一貫性が確保され,人間のポーズの物理的再現性が向上した。
自由飛行中の人や異なる物体に対する地平線アノテーションを用いた新しいデータセットでGraviCapを評価した。
実験では, 各種計測値を用いた3次元モーションキャプチャにおいて, 最先端の精度を実現する。
私たちは読者に補足ビデオを見るように促します。
ソースコードとデータセットはどちらもリリースされている。
関連論文リスト
- Visibility Aware Human-Object Interaction Tracking from Single RGB
Camera [40.817960406002506]
本稿では,1台のRGBカメラからフレーム間の3次元人・物・接触・相対変換を追跡する新しい手法を提案する。
我々は、SMPLをビデオシーケンスに予め適合させて得られたフレームごとのSMPLモデル推定に基づいて、人間と物体の脳野再構成を行う。
可視フレームからの人間と物体の動きは、隠蔽された物体を推測するための貴重な情報を提供する。
論文 参考訳(メタデータ) (2023-03-29T06:23:44Z) - Decoupling Human and Camera Motion from Videos in the Wild [67.39432972193929]
本研究では,野生の映像から地球規模の人間の軌道を再構築する手法を提案する。
カメラと人間の動きを分離することで、人間を同じ世界座標系に配置することができる。
論文 参考訳(メタデータ) (2023-02-24T18:59:15Z) - D&D: Learning Human Dynamics from Dynamic Camera [55.60512353465175]
本稿では、物理の法則を活かしたD&D(Learning Human Dynamics from Dynamic Camera)を紹介する。
私たちのアプローチは完全にニューラルネットワークで、物理エンジンのオフライン最適化やシミュレーションなしで動作します。
論文 参考訳(メタデータ) (2022-09-19T06:51:02Z) - Estimating 3D Motion and Forces of Human-Object Interactions from
Internet Videos [49.52070710518688]
一つのRGBビデオからオブジェクトと対話する人の3D動作を再構築する手法を提案する。
本手法では,被験者の3次元ポーズを物体のポーズ,接触位置,人体の接触力とともに推定する。
論文 参考訳(メタデータ) (2021-11-02T13:40:18Z) - Learning Motion Priors for 4D Human Body Capture in 3D Scenes [81.54377747405812]
LEMO: LEMO: LEARING Human Motion priors for 4D human body capture。
提案手法では, 連続して復元されたポーズによって現れるジッタを減少させる新規な動きを事前に導入する。
また, 接触摩擦項と, 物体ごとの自己監督訓練により得られる接触認識運動充填剤を設計した。
パイプラインでは、高品質な4D人体撮影、スムーズな動きの再構築、身体とシーンの相互作用を実演しています。
論文 参考訳(メタデータ) (2021-08-23T20:47:09Z) - D3D-HOI: Dynamic 3D Human-Object Interactions from Videos [49.38319295373466]
本稿では,D3D-HOIについて紹介する。D3D-HOIは3次元オブジェクトのポーズ,形状,動きを,人間と物体の相互作用の時,地上の真理アノテーションを付加したモノクロビデオのデータセットである。
我々のデータセットは、様々な現実世界のシーンとカメラの視点から捉えた、いくつかの共通したオブジェクトで構成されている。
我々は、推定された3次元人間のポーズを利用して、物体の空間的レイアウトとダイナミクスをより正確に推定する。
論文 参考訳(メタデータ) (2021-08-19T00:49:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。