論文の概要: Scene-aware Generative Network for Human Motion Synthesis
- arxiv url: http://arxiv.org/abs/2105.14804v1
- Date: Mon, 31 May 2021 09:05:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 03:23:19.877640
- Title: Scene-aware Generative Network for Human Motion Synthesis
- Title(参考訳): ヒューマンモーション合成のためのシーン認識生成ネットワーク
- Authors: Jingbo Wang, Sijie Yan, Bo Dai, Dahua LIn
- Abstract要約: シーンと人間の動きの相互作用を考慮した新しい枠組みを提案する。
人間の動きの不確実性を考慮すると、このタスクを生成タスクとして定式化する。
我々は、人間の動きと文脈シーンとの整合性を強制するための識別器を備えた、GANに基づく学習アプローチを導出する。
- 参考スコア(独自算出の注目度): 125.21079898942347
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We revisit human motion synthesis, a task useful in various real world
applications, in this paper. Whereas a number of methods have been developed
previously for this task, they are often limited in two aspects: focusing on
the poses while leaving the location movement behind, and ignoring the impact
of the environment on the human motion. In this paper, we propose a new
framework, with the interaction between the scene and the human motion taken
into account. Considering the uncertainty of human motion, we formulate this
task as a generative task, whose objective is to generate plausible human
motion conditioned on both the scene and the human initial position. This
framework factorizes the distribution of human motions into a distribution of
movement trajectories conditioned on scenes and that of body pose dynamics
conditioned on both scenes and trajectories. We further derive a GAN based
learning approach, with discriminators to enforce the compatibility between the
human motion and the contextual scene as well as the 3D to 2D projection
constraints. We assess the effectiveness of the proposed method on two
challenging datasets, which cover both synthetic and real world environments.
- Abstract(参考訳): 本稿では,実世界の様々な応用に有用なヒューマン・モーション・シンセサイザーについて再考する。
以前、このタスクのために多くの手法が開発されてきたが、それらはしばしば2つの側面に制限されている: 位置移動を残しながらポーズに焦点を合わせ、環境が人間の動きに与える影響を無視している。
本稿では,シーンと人間の動きの相互作用を考慮した新しい枠組みを提案する。
人間の動きの不確実性を考慮すると、このタスクを生成タスクとして定式化し、その目的は、シーンと人間の初期位置の両方に条件付けられた可塑性な人間の動きを生成することである。
この枠組みは、人間の動きの分布を、シーンで条件付けられた動き軌跡の分布と、シーンと軌道の両方で条件付けられた身体ポーズのダイナミクスの分布に分解する。
さらに,3次元から2次元のプロジェクション制約だけでなく,人間の動きと文脈シーンとの整合性を強制する,GANに基づく学習手法を考案した。
提案手法の有効性を,合成環境と実環境の両方をカバーする2つの挑戦的データセット上で評価した。
関連論文リスト
- ReMoS: Reactive 3D Motion Synthesis for Two-Person Interactions [71.74348331841057]
本稿では,反応運動合成のための拡散型確率モデルReMoSを紹介する。
本稿では,ペアダンス,忍術,キックボクシング,アクロバティックスなど,多岐にわたる難解な2人シナリオ下でのReMoSの性能を示す。
この結果はインタラクティブなアプリケーションでも利用でき、アニメーターに十分な量の制御を提供する。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - Scene-aware Human Motion Forecasting via Mutual Distance Prediction [14.68677167874397]
本研究では,人体とシーン間の相互距離による人間とシーンの相互作用をモデル化する。
このような相互距離は局所的な動きと大域的な動きの両方を制約し、結果として全身的な動きは予測される。
2つのステップでパイプラインを構築し、まず将来の相互距離を予測し、次に将来の人間の動きを予測する。
論文 参考訳(メタデータ) (2023-10-01T08:32:46Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Towards Diverse and Natural Scene-aware 3D Human Motion Synthesis [117.15586710830489]
本研究では,ターゲットアクションシーケンスの誘導の下で,多様なシーンを意識した人間の動作を合成する問題に焦点をあてる。
この因子化スキームに基づいて、各サブモジュールが1つの側面をモデリングする責任を負う階層的なフレームワークが提案されている。
実験の結果,提案手法は,多様性と自然性の観点から,従来の手法よりも著しく優れていた。
論文 参考訳(メタデータ) (2022-05-25T18:20:01Z) - Action2Motion: Conditioned Generation of 3D Human Motions [28.031644518303075]
我々は3Dで人間の動作シーケンスを生成することを目的としている。
それぞれのサンプル配列は、自然界の体動力学に忠実に類似している。
新しい3DモーションデータセットであるHumanAct12も構築されている。
論文 参考訳(メタデータ) (2020-07-30T05:29:59Z) - Socially and Contextually Aware Human Motion and Pose Forecasting [48.083060946226]
本研究では,人間の動作(あるいは骨格ポーズ)と体骨格のポーズ予測の両課題に対処するための新しい枠組みを提案する。
我々は,この予測課題における重要な手がかりとして,シーンと社会的文脈の両方を取り入れることを検討する。
提案手法は,2つのソーシャルデータセットのベースラインよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2020-07-14T06:12:13Z) - Long-term Human Motion Prediction with Scene Context [60.096118270451974]
人間の動きを予測するための新しい3段階フレームワークを提案する。
提案手法はまず,まず複数の人間の動作目標を抽出し,各目標に向けて3次元人間の動作経路を計画し,最後に各経路に続く3次元人間のポーズシーケンスを予測する。
論文 参考訳(メタデータ) (2020-07-07T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。