論文の概要: Neural Monocular 3D Human Motion Capture with Physical Awareness
- arxiv url: http://arxiv.org/abs/2105.01057v1
- Date: Mon, 3 May 2021 17:57:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 13:38:38.971916
- Title: Neural Monocular 3D Human Motion Capture with Physical Awareness
- Title(参考訳): 身体的認識を伴う神経単眼3次元モーションキャプチャ
- Authors: Soshi Shimada and Vladislav Golyanik and Weipeng Xu and Patrick
P\'erez and Christian Theobalt
- Abstract要約: 物理的に可塑性なマーカーレス3次元モーションキャプチャのための新しいトレーニングシステムを提案する。
人間のモーションキャプチャのためのほとんどのニューラルな手法とは異なり、我々のアプローチは物理的および環境的な制約を認識している。
様々な場面でインタラクティブなフレームレートで、滑らかで物理的に原理化された3dモーションを生成する。
- 参考スコア(独自算出の注目度): 76.55971509794598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new trainable system for physically plausible markerless 3D
human motion capture, which achieves state-of-the-art results in a broad range
of challenging scenarios. Unlike most neural methods for human motion capture,
our approach, which we dub physionical, is aware of physical and environmental
constraints. It combines in a fully differentiable way several key innovations,
i.e., 1. a proportional-derivative controller, with gains predicted by a neural
network, that reduces delays even in the presence of fast motions, 2. an
explicit rigid body dynamics model and 3. a novel optimisation layer that
prevents physically implausible foot-floor penetration as a hard constraint.
The inputs to our system are 2D joint keypoints, which are canonicalised in a
novel way so as to reduce the dependency on intrinsic camera parameters -- both
at train and test time. This enables more accurate global translation
estimation without generalisability loss. Our model can be finetuned only with
2D annotations when the 3D annotations are not available. It produces smooth
and physically principled 3D motions in an interactive frame rate in a wide
variety of challenging scenes, including newly recorded ones. Its advantages
are especially noticeable on in-the-wild sequences that significantly differ
from common 3D pose estimation benchmarks such as Human 3.6M and MPI-INF-3DHP.
Qualitative results are available at
http://gvv.mpi-inf.mpg.de/projects/PhysAware/
- Abstract(参考訳): 本研究では,物理的に可塑性なマーカーレス3次元モーションキャプチャーのためのトレーニング可能な新しいシステムを提案する。
人間の動きを捉えるためのほとんどの神経的な方法とは異なり、我々のアプローチは身体的および環境的な制約を認識している。
完全に微分可能な方法、すなわち1.比例導出制御器とニューラルネットワークによって予測されるゲインとを組み合わせることで、高速動作の有無でも遅延を低減し、2. 明示的な剛体力学モデル、3. 物理的に目立たない足底浸透をハード制約として防ぐ新しい最適化層を組み合わせる。
システムへの入力は2Dジョイントキーポイントであり、列車とテスト時間の両方で固有のカメラパラメータへの依存性を減らすために、新しい方法で標準化されています。
これにより、汎用性を損なうことなく、より正確なグローバル翻訳推定が可能になる。
私たちのモデルは、3Dアノテーションが利用できない場合にのみ2Dアノテーションで微調整できます。
インタラクティブなフレームレートで、スムーズで物理的に原則化された3Dモーションを生成する。
その利点は、Human 3.6M や MPI-INF-3DHP のような一般的な3Dポーズ推定ベンチマークと大きく異なっている。
質的な結果はhttp://gvv.mpi-inf.mpg.de/projects/PhysAware/で確認できる。
関連論文リスト
- Hybrid 3D Human Pose Estimation with Monocular Video and Sparse IMUs [15.017274891943162]
モノクロビデオからの時間的3Dポーズ推定は、人間中心のコンピュータビジョンにおいて難しい課題である。
情報ソースを補完するために慣性センサが導入された。
物理的に合理的な3Dポーズを生成するために、異種センサデータを統合することは依然として困難である。
論文 参考訳(メタデータ) (2024-04-27T09:02:42Z) - NIKI: Neural Inverse Kinematics with Invertible Neural Networks for 3D
Human Pose and Shape Estimation [53.25973084799954]
両方向誤差をモデル化したNIKI(Neural Inverse Kinematics with Invertible Neural Network)を提案する。
NIKIは、非可逆ネットワークによる前処理と逆処理の両方から学習することができる。
論文 参考訳(メタデータ) (2023-05-15T12:13:24Z) - MotionBERT: A Unified Perspective on Learning Human Motion
Representations [46.67364057245364]
本研究では,大規模・異種データ資源から人の動き表現を学習することで,人間中心のビデオタスクに取り組むための統一的な視点を示す。
本研究では,ノイズのある部分的な2次元観測から基礎となる3次元運動を復元するために,モーションエンコーダを訓練する事前学習段階を提案する。
動作エンコーダをDST(Dual-stream Spatio-temporal Transformer)ニューラルネットワークで実装する。
論文 参考訳(メタデータ) (2022-10-12T19:46:25Z) - MoCaNet: Motion Retargeting in-the-wild via Canonicalization Networks [77.56526918859345]
そこで本研究では,制御された環境から3次元動作タスクを実現する新しいフレームワークを提案する。
モーションキャプチャシステムや3D再構成手順を使わずに、2Dモノクロ映像のキャラクタから3Dキャラクタへの体動を可能にする。
論文 参考訳(メタデータ) (2021-12-19T07:52:05Z) - PhysCap: Physically Plausible Monocular 3D Motion Capture in Real Time [89.68248627276955]
シングルカラーカメラからのマーカレス3Dモーションキャプチャは、大きな進歩を遂げた。
しかし、これは非常に困難な問題であり、深刻な問題である。
我々はPhysCapについて紹介する。PhysCapは物理的に可塑性でリアルタイムでマーカーのない人間の3Dモーションキャプチャのための最初のアルゴリズムである。
論文 参考訳(メタデータ) (2020-08-20T10:46:32Z) - Contact and Human Dynamics from Monocular Video [73.47466545178396]
既存のディープモデルは、ほぼ正確に見えるエラーを含むビデオから2Dと3Dキネマティックのポーズを予測する。
本稿では,最初の2次元と3次元のポーズ推定を入力として,映像系列から3次元の人間の動きを推定する物理に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-22T21:09:11Z) - Motion Guided 3D Pose Estimation from Videos [81.14443206968444]
本研究では,2次元ポーズから1次元の人物ポーズ推定を行う問題に対して,運動損失と呼ばれる新たな損失関数を提案する。
運動損失の計算では、ペアワイズ・モーション・エンコーディング(ペアワイズ・モーション・エンコーディング)と呼ばれる単純なキーポイント・モーションの表現が導入された。
UGCN(U-shaped GCN)と呼ばれる新しいグラフ畳み込みネットワークアーキテクチャを設計し,短期および長期の動作情報の両方をキャプチャする。
論文 参考訳(メタデータ) (2020-04-29T06:59:30Z) - 3D Human Pose Estimation using Spatio-Temporal Networks with Explicit
Occlusion Training [40.933783830017035]
近年の大きな進歩にもかかわらず、モノラルなタスクから3Dのポーズを推定することは依然として難しい課題である。
頑健な3次元ポーズ推定のための時間的ビデオネットワークを提案する。
本研究では,各フレームに2次元関節やキーポイントの予測,および3次元関節やキーポイントを推定するために,多段階の時間的畳み込みネットワーク(TCN)を適用した。
論文 参考訳(メタデータ) (2020-04-07T09:12:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。