論文の概要: Towards Diverse and Natural Scene-aware 3D Human Motion Synthesis
- arxiv url: http://arxiv.org/abs/2205.13001v1
- Date: Wed, 25 May 2022 18:20:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-28 13:53:15.192103
- Title: Towards Diverse and Natural Scene-aware 3D Human Motion Synthesis
- Title(参考訳): 多様な自然シーンを意識した3次元モーション合成に向けて
- Authors: Jingbo Wang, Yu Rong, Jingyuan Liu, Sijie Yan, Dahua Lin, Bo Dai
- Abstract要約: 本研究では,ターゲットアクションシーケンスの誘導の下で,多様なシーンを意識した人間の動作を合成する問題に焦点をあてる。
この因子化スキームに基づいて、各サブモジュールが1つの側面をモデリングする責任を負う階層的なフレームワークが提案されている。
実験の結果,提案手法は,多様性と自然性の観点から,従来の手法よりも著しく優れていた。
- 参考スコア(独自算出の注目度): 117.15586710830489
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to synthesize long-term human motion sequences in real-world
scenes can facilitate numerous applications. Previous approaches for
scene-aware motion synthesis are constrained by pre-defined target objects or
positions and thus limit the diversity of human-scene interactions for
synthesized motions. In this paper, we focus on the problem of synthesizing
diverse scene-aware human motions under the guidance of target action
sequences. To achieve this, we first decompose the diversity of scene-aware
human motions into three aspects, namely interaction diversity (e.g. sitting on
different objects with different poses in the given scenes), path diversity
(e.g. moving to the target locations following different paths), and the motion
diversity (e.g. having various body movements during moving). Based on this
factorized scheme, a hierarchical framework is proposed, with each sub-module
responsible for modeling one aspect. We assess the effectiveness of our
framework on two challenging datasets for scene-aware human motion synthesis.
The experiment results show that the proposed framework remarkably outperforms
previous methods in terms of diversity and naturalness.
- Abstract(参考訳): 現実世界のシーンで長期の人間の動きを合成する能力は、多くの応用に役立つ。
シーン認識動作合成の従来のアプローチは、予め定義された対象物や位置によって制約され、それによって合成された動きに対する人間とシーンの相互作用の多様性が制限される。
本稿では,ターゲットアクションシーケンスの誘導の下で,多様なシーン認識動作を合成する問題に焦点をあてる。
これを実現するために、まず、シーン認識された人間の動きの多様性を、3つの側面に分解する。例えば、相互作用の多様性(例えば、与えられた場面で異なるポーズで異なる物体に座るなど)、経路の多様性(例えば、異なる経路に続くターゲット場所へ移動する)、動きの多様性(例えば、移動中の様々な身体の動きを持つ)。
この因子化スキームに基づいて階層的なフレームワークが提案され、各サブモジュールが1つの側面をモデル化する。
シーン認識型人間動作合成のための2つの挑戦的データセットに対するフレームワークの有効性を評価する。
実験の結果,提案フレームワークは,多様性と自然性の観点から従来の手法よりも著しく優れていた。
関連論文リスト
- ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - DiverseMotion: Towards Diverse Human Motion Generation via Discrete
Diffusion [70.33381660741861]
テキスト記述に基づく高品質な人間の動作を合成するための新しいアプローチであるDiverseMotionを提案する。
我々のDiverseMotionは、最先端のモーション品質と競争力の多様性を達成できることを示す。
論文 参考訳(メタデータ) (2023-09-04T05:43:48Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Locomotion-Action-Manipulation: Synthesizing Human-Scene Interactions in
Complex 3D Environments [11.87902527509297]
複雑な屋内環境下での自然および可塑性な長期的人間の運動を合成するために,LAMA, Locomotion-Action-Manipulationを提案する。
従来の3Dシーンをスキャンして「ペア化」する手法とは異なり、人間のモーションキャプチャーデータを合成にのみ使用することにより、テスト時間最適化として問題を定式化する。
論文 参考訳(メタデータ) (2023-01-09T18:59:16Z) - IMoS: Intent-Driven Full-Body Motion Synthesis for Human-Object
Interactions [69.95820880360345]
そこで本研究では,仮想人物の全身動作を3Dオブジェクトで合成する最初のフレームワークを提案する。
本システムでは,オブジェクトと仮想文字の関連意図を入力テキストとして記述する。
その結果, 80%以上のシナリオにおいて, 合成された全身運動は参加者よりリアルに見えることがわかった。
論文 参考訳(メタデータ) (2022-12-14T23:59:24Z) - Scene-aware Generative Network for Human Motion Synthesis [125.21079898942347]
シーンと人間の動きの相互作用を考慮した新しい枠組みを提案する。
人間の動きの不確実性を考慮すると、このタスクを生成タスクとして定式化する。
我々は、人間の動きと文脈シーンとの整合性を強制するための識別器を備えた、GANに基づく学習アプローチを導出する。
論文 参考訳(メタデータ) (2021-05-31T09:05:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。