論文の概要: Learning Motion Priors for 4D Human Body Capture in 3D Scenes
- arxiv url: http://arxiv.org/abs/2108.10399v1
- Date: Mon, 23 Aug 2021 20:47:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 14:28:45.822601
- Title: Learning Motion Priors for 4D Human Body Capture in 3D Scenes
- Title(参考訳): 3次元シーンにおける4次元人体キャプチャの学習動作
- Authors: Siwei Zhang, Yan Zhang, Federica Bogo, Marc Pollefeys, Siyu Tang
- Abstract要約: LEMO: LEMO: LEARING Human Motion priors for 4D human body capture。
提案手法では, 連続して復元されたポーズによって現れるジッタを減少させる新規な動きを事前に導入する。
また, 接触摩擦項と, 物体ごとの自己監督訓練により得られる接触認識運動充填剤を設計した。
パイプラインでは、高品質な4D人体撮影、スムーズな動きの再構築、身体とシーンの相互作用を実演しています。
- 参考スコア(独自算出の注目度): 81.54377747405812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recovering high-quality 3D human motion in complex scenes from monocular
videos is important for many applications, ranging from AR/VR to robotics.
However, capturing realistic human-scene interactions, while dealing with
occlusions and partial views, is challenging; current approaches are still far
from achieving compelling results. We address this problem by proposing LEMO:
LEarning human MOtion priors for 4D human body capture. By leveraging the
large-scale motion capture dataset AMASS, we introduce a novel motion
smoothness prior, which strongly reduces the jitters exhibited by poses
recovered over a sequence. Furthermore, to handle contacts and occlusions
occurring frequently in body-scene interactions, we design a contact friction
term and a contact-aware motion infiller obtained via per-instance
self-supervised training. To prove the effectiveness of the proposed motion
priors, we combine them into a novel pipeline for 4D human body capture in 3D
scenes. With our pipeline, we demonstrate high-quality 4D human body capture,
reconstructing smooth motions and physically plausible body-scene interactions.
The code and data are available at https://sanweiliti.github.io/LEMO/LEMO.html.
- Abstract(参考訳): モノクロビデオから複雑なシーンで高品質な3Dモーションを復元することは、AR/VRからロボティクスまで、多くのアプリケーションにとって重要である。
しかし, 咬合や部分的視点を扱いながら, 現実的な人間とシーンの相互作用を捉えることは困難であり, 現在のアプローチは, 説得力のある結果を得るには程遠い。
この問題を解決するために, LEMO: LEMO: LEarning Human Motion priors for 4D human body capture を提案する。
大規模モーションキャプチャデータセットamassを活用することで,新たなモーションスムースネスを事前に導入し,シーケンス上で回収されたポーズによって提示されるジッタを強力に低減する。
さらに, 身体と身体の相互作用に頻発する接触や咬合を扱うために, 接触摩擦項と接触認識運動インフィラを設計した。
提案手法の有効性を証明するために,これらを3次元シーンにおける4次元人体キャプチャのための新しいパイプラインとして組み合わせた。
われわれのパイプラインでは、高品質な4D人体撮影、滑らかな動きの再構築、身体とシーンの相互作用を実証している。
コードとデータはhttps://sanweiliti.github.io/LEMO/LEMO.htmlで公開されている。
関連論文リスト
- AvatarGO: Zero-shot 4D Human-Object Interaction Generation and Animation [60.5897687447003]
AvatarGOはテキスト入力からリアルな4D HOIシーンを生成するために設計された新しいフレームワークである。
我々のフレームワークは、コヒーレントな構成運動を生成するだけでなく、問題に対処する上でより堅牢性を示す。
4Dアバターをオブジェクトインタラクションで合成する最初の試みとして、AvatarGOが人間中心の4Dコンテンツを作るための新しい扉を開くことを願っている。
論文 参考訳(メタデータ) (2024-10-09T17:58:56Z) - Synthesizing Diverse Human Motions in 3D Indoor Scenes [16.948649870341782]
そこで本研究では,仮想人間による3次元屋内シーンの映像化手法を提案する。
既存のアプローチは、キャプチャーされた人間の動きと、それらが相互作用する3Dシーンを含むトレーニングシーケンスに依存している。
仮想人間が3Dシーンをナビゲートし、現実的かつ自律的にオブジェクトと対話できる強化学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-21T09:22:24Z) - Decoupling Human and Camera Motion from Videos in the Wild [67.39432972193929]
本研究では,野生の映像から地球規模の人間の軌道を再構築する手法を提案する。
カメラと人間の動きを分離することで、人間を同じ世界座標系に配置することができる。
論文 参考訳(メタデータ) (2023-02-24T18:59:15Z) - Contact-aware Human Motion Forecasting [87.04827994793823]
我々は,3Dシーンと過去の人間の動作を与えられた将来の人間のポーズを予測することで,シーン認識型3Dモーション予測の課題に取り組む。
提案手法は,現在最先端のヒトの動作予測と,合成データと実データの両方においてヒトの合成手法より優れる。
論文 参考訳(メタデータ) (2022-10-08T07:53:19Z) - Estimating 3D Motion and Forces of Human-Object Interactions from
Internet Videos [49.52070710518688]
一つのRGBビデオからオブジェクトと対話する人の3D動作を再構築する手法を提案する。
本手法では,被験者の3次元ポーズを物体のポーズ,接触位置,人体の接触力とともに推定する。
論文 参考訳(メタデータ) (2021-11-02T13:40:18Z) - Human POSEitioning System (HPS): 3D Human Pose Estimation and
Self-localization in Large Scenes from Body-Mounted Sensors [71.29186299435423]
HPS(Human POSEitioning System)は、周囲の環境の3Dスキャンで登録された人間の完全な3Dポーズを回復する手法です。
最適化に基づく統合は2つの利点を生かし、結果としてドリフトのないポーズの精度が得られることを示す。
hpsは、人間が外部カメラに直接視線を向けなくてもシーンと対話できるvr/arアプリケーションとして使用できる。
論文 参考訳(メタデータ) (2021-03-31T17:58:31Z) - Synthesizing Long-Term 3D Human Motion and Interaction in 3D Scenes [27.443701512923177]
人間のモーション合成とシーンアレイアンス推論を橋渡しすることを提案する。
本研究では,3次元シーン構造上での長期人間の動作条件を合成する階層的生成フレームワークを提案する。
実験では,自然および物理的に再現可能な人間の動きをシーン内で生成する従来の手法よりも大幅に改善した。
論文 参考訳(メタデータ) (2020-12-10T09:09:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。