論文の概要: Contact and Human Dynamics from Monocular Video
- arxiv url: http://arxiv.org/abs/2007.11678v2
- Date: Fri, 24 Jul 2020 04:02:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 23:05:46.465764
- Title: Contact and Human Dynamics from Monocular Video
- Title(参考訳): モノクルビデオからの接触と人間のダイナミクス
- Authors: Davis Rempe, Leonidas J. Guibas, Aaron Hertzmann, Bryan Russell, Ruben
Villegas, Jimei Yang
- Abstract要約: 既存のディープモデルは、ほぼ正確に見えるエラーを含むビデオから2Dと3Dキネマティックのポーズを予測する。
本稿では,最初の2次元と3次元のポーズ推定を入力として,映像系列から3次元の人間の動きを推定する物理に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 73.47466545178396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing deep models predict 2D and 3D kinematic poses from video that are
approximately accurate, but contain visible errors that violate physical
constraints, such as feet penetrating the ground and bodies leaning at extreme
angles. In this paper, we present a physics-based method for inferring 3D human
motion from video sequences that takes initial 2D and 3D pose estimates as
input. We first estimate ground contact timings with a novel prediction network
which is trained without hand-labeled data. A physics-based trajectory
optimization then solves for a physically-plausible motion, based on the
inputs. We show this process produces motions that are significantly more
realistic than those from purely kinematic methods, substantially improving
quantitative measures of both kinematic and dynamic plausibility. We
demonstrate our method on character animation and pose estimation tasks on
dynamic motions of dancing and sports with complex contact patterns.
- Abstract(参考訳): 既存の深層モデルでは、ほぼ正確な映像から2dと3dのキネマティックなポーズを予測するが、足が地面を貫通したり、体が極端な角度に傾いたりといった物理的制約に違反する目に見えるエラーを含む。
本稿では,初期2次元および3次元ポーズ推定を入力とする映像列から3次元人間の動きを推定する物理ベースの手法を提案する。
まず,手書きデータなしでトレーニングした新しい予測ネットワークを用いて接地タイミングを推定する。
物理ベースの軌道最適化は、入力に基づいて物理的に許容できる動きを解く。
このプロセスは、純粋にキネマティックな手法よりもはるかに現実的な動きを生じさせ、キネマティックおよび動的可視性の定量的測定を著しく改善する。
本稿では,複雑な接触パターンを持つダンスやスポーツの動的動きのキャラクターアニメーションとポーズ推定タスクについて紹介する。
関連論文リスト
- Optimal-state Dynamics Estimation for Physics-based Human Motion Capture from Videos [6.093379844890164]
オンライン環境での運動学観測に物理モデルを選択的に組み込む新しい手法を提案する。
リカレントニューラルネットワークを導入し、キネマティックス入力とシミュレートされた動作を熱心にバランスするカルマンフィルタを実現する。
提案手法は,物理に基づく人間のポーズ推定作業に優れ,予測力学の物理的妥当性を示す。
論文 参考訳(メタデータ) (2024-10-10T10:24:59Z) - DreamPhysics: Learning Physical Properties of Dynamic 3D Gaussians with Video Diffusion Priors [75.83647027123119]
本稿では,映像拡散前の物体の物理的特性を学習することを提案する。
次に,物理に基づくMaterial-Point-Methodシミュレータを用いて,現実的な動きを伴う4Dコンテンツを生成する。
論文 参考訳(メタデータ) (2024-06-03T16:05:25Z) - D&D: Learning Human Dynamics from Dynamic Camera [55.60512353465175]
本稿では、物理の法則を活かしたD&D(Learning Human Dynamics from Dynamic Camera)を紹介する。
私たちのアプローチは完全にニューラルネットワークで、物理エンジンのオフライン最適化やシミュレーションなしで動作します。
論文 参考訳(メタデータ) (2022-09-19T06:51:02Z) - Trajectory Optimization for Physics-Based Reconstruction of 3d Human
Pose from Monocular Video [31.96672354594643]
本研究は,単眼映像から身体的に可視な人間の動きを推定する作業に焦点をあてる。
物理を考慮しない既存のアプローチは、しばしば運動人工物と時間的に矛盾した出力を生み出す。
提案手法は,Human3.6Mベンチマークにおける既存の物理法と競合する結果が得られることを示す。
論文 参考訳(メタデータ) (2022-05-24T18:02:49Z) - Action2video: Generating Videos of Human 3D Actions [31.665831044217363]
我々は、所定のアクションカテゴリから多様で自然な人間の動きのビデオを生成するという、興味深いが挑戦的な課題に取り組むことを目的としている。
重要な問題は、視覚的な外観で現実的な複数の異なる動き列を合成する能力にある。
Action2motionallyは、所定のアクションカテゴリのもっともらしい3Dポーズシーケンスを生成し、モーション2ビデオによって処理され、レンダリングされ、2Dビデオを形成する。
論文 参考訳(メタデータ) (2021-11-12T20:20:37Z) - Estimating 3D Motion and Forces of Human-Object Interactions from
Internet Videos [49.52070710518688]
一つのRGBビデオからオブジェクトと対話する人の3D動作を再構築する手法を提案する。
本手法では,被験者の3次元ポーズを物体のポーズ,接触位置,人体の接触力とともに推定する。
論文 参考訳(メタデータ) (2021-11-02T13:40:18Z) - PhysCap: Physically Plausible Monocular 3D Motion Capture in Real Time [89.68248627276955]
シングルカラーカメラからのマーカレス3Dモーションキャプチャは、大きな進歩を遂げた。
しかし、これは非常に困難な問題であり、深刻な問題である。
我々はPhysCapについて紹介する。PhysCapは物理的に可塑性でリアルタイムでマーカーのない人間の3Dモーションキャプチャのための最初のアルゴリズムである。
論文 参考訳(メタデータ) (2020-08-20T10:46:32Z) - Occlusion resistant learning of intuitive physics from videos [52.25308231683798]
人工システムの鍵となる能力は、オブジェクト間の物理的相互作用を理解し、状況の将来的な結果を予測することである。
この能力は直感的な物理学と呼ばれ、近年注目されており、ビデオシーケンスからこれらの物理規則を学ぶためのいくつかの方法が提案されている。
論文 参考訳(メタデータ) (2020-04-30T19:35:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。