論文の概要: Synthesizing Long-Term 3D Human Motion and Interaction in 3D Scenes
- arxiv url: http://arxiv.org/abs/2012.05522v1
- Date: Thu, 10 Dec 2020 09:09:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:24:23.857779
- Title: Synthesizing Long-Term 3D Human Motion and Interaction in 3D Scenes
- Title(参考訳): 3次元シーンにおける長期人間の動作と相互作用の合成
- Authors: Jiashun Wang and Huazhe Xu and Jingwei Xu and Sifei Liu and Xiaolong
Wang
- Abstract要約: 人間のモーション合成とシーンアレイアンス推論を橋渡しすることを提案する。
本研究では,3次元シーン構造上での長期人間の動作条件を合成する階層的生成フレームワークを提案する。
実験では,自然および物理的に再現可能な人間の動きをシーン内で生成する従来の手法よりも大幅に改善した。
- 参考スコア(独自算出の注目度): 27.443701512923177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthesizing 3D human motion plays an important role in many graphics
applications as well as understanding human activity. While many efforts have
been made on generating realistic and natural human motion, most approaches
neglect the importance of modeling human-scene interactions and affordance. On
the other hand, affordance reasoning (e.g., standing on the floor or sitting on
the chair) has mainly been studied with static human pose and gestures, and it
has rarely been addressed with human motion. In this paper, we propose to
bridge human motion synthesis and scene affordance reasoning. We present a
hierarchical generative framework to synthesize long-term 3D human motion
conditioning on the 3D scene structure. Building on this framework, we further
enforce multiple geometry constraints between the human mesh and scene point
clouds via optimization to improve realistic synthesis. Our experiments show
significant improvements over previous approaches on generating natural and
physically plausible human motion in a scene.
- Abstract(参考訳): 人間の3D動作の合成は多くのグラフィックアプリケーションにおいて重要な役割を担い、人間の活動を理解する。
現実的で自然な人間の動きを生み出すために多くの努力がなされてきたが、ほとんどのアプローチは人間とシーンの相互作用と余裕をモデル化することの重要性を無視している。
一方、手頃な推論(例えば、床に立ったり、椅子に座ったり)は、主に静的な人間のポーズやジェスチャーで研究されており、人間の動きで対処されることはめったにない。
本稿では,人間の動作合成とシーン余裕推論の橋渡しを提案する。
本研究では,3次元シーン構造上での長期動作条件を合成する階層的生成フレームワークを提案する。
このフレームワークを基盤として,現実的な合成を改善するために,人間のメッシュとシーンポイントクラウド間の幾何的制約をさらに強化する。
実験では,自然および物理的に再現可能な人間の動きをシーン内で生成する従来の手法よりも大幅に改善した。
関連論文リスト
- Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Scene Synthesis from Human Motion [26.2618553074691]
そこで本研究では,人間の動作に基づいて,多様で意味論的に合理的で,物理的に妥当なシーンを合成することを提案する。
Human Motion (MONSUM) のシーン・シンセサイザーには2つのステップがある。
まず、新たに導入されたコンタクト予測器であるContactFormerを使用して、人間の動きから時間的に一貫したコンタクトラベルを取得する。
論文 参考訳(メタデータ) (2023-01-04T03:30:46Z) - HUMANISE: Language-conditioned Human Motion Generation in 3D Scenes [54.61610144668777]
本稿では,3次元シーンで3次元人間の動きを生成できる新しいシーン・アンド・ランゲージ・コンディショニング・ジェネレーション・モデルを提案する。
実験により,我々のモデルは3次元シーンにおいて多様で意味的に一貫した人間の動きを生成できることを示した。
論文 参考訳(メタデータ) (2022-10-18T10:14:11Z) - Towards Diverse and Natural Scene-aware 3D Human Motion Synthesis [117.15586710830489]
本研究では,ターゲットアクションシーケンスの誘導の下で,多様なシーンを意識した人間の動作を合成する問題に焦点をあてる。
この因子化スキームに基づいて、各サブモジュールが1つの側面をモデリングする責任を負う階層的なフレームワークが提案されている。
実験の結果,提案手法は,多様性と自然性の観点から,従来の手法よりも著しく優れていた。
論文 参考訳(メタデータ) (2022-05-25T18:20:01Z) - High-Fidelity Neural Human Motion Transfer from Monocular Video [71.75576402562247]
ビデオベースの人間のモーション転送は、ソースモーションに従って人間のビデオアニメーションを作成します。
自然なポーズ依存非剛性変形を伴う高忠実で時間的に一貫性のある人の動き伝達を行う新しい枠組みを提案する。
実験結果では,映像リアリズムの点で最先端を著しく上回っている。
論文 参考訳(メタデータ) (2020-12-20T16:54:38Z) - PLACE: Proximity Learning of Articulation and Contact in 3D Environments [70.50782687884839]
本研究では,人体と周囲の3Dシーンとの近接性をモデル化した新しいインタラクション生成手法PLACEを提案する。
我々の知覚学的研究は、PLACEが実際の人間とシーンの相互作用のリアリズムにアプローチし、最先端の手法を著しく改善することを示している。
論文 参考訳(メタデータ) (2020-08-12T21:00:10Z) - Long-term Human Motion Prediction with Scene Context [60.096118270451974]
人間の動きを予測するための新しい3段階フレームワークを提案する。
提案手法はまず,まず複数の人間の動作目標を抽出し,各目標に向けて3次元人間の動作経路を計画し,最後に各経路に続く3次元人間のポーズシーケンスを予測する。
論文 参考訳(メタデータ) (2020-07-07T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。