論文の概要: ReMoS: Reactive 3D Motion Synthesis for Two-Person Interactions
- arxiv url: http://arxiv.org/abs/2311.17057v1
- Date: Tue, 28 Nov 2023 18:59:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 17:01:20.834496
- Title: ReMoS: Reactive 3D Motion Synthesis for Two-Person Interactions
- Title(参考訳): ReMoS:2パーソンインタラクションのためのリアクティブ3次元モーション合成
- Authors: Anindita Ghosh and Rishabh Dabral and Vladislav Golyanik and Christian
Theobalt and Philipp Slusallek
- Abstract要約: 本稿では,反応運動合成のための拡散型確率モデルReMoSを紹介する。
本稿では,ペアダンス,忍術,キックボクシング,アクロバティックスなど,多岐にわたる難解な2人シナリオ下でのReMoSの性能を示す。
この結果はインタラクティブなアプリケーションでも利用でき、アニメーターに十分な量の制御を提供する。
- 参考スコア(独自算出の注目度): 71.74348331841057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current approaches for 3D human motion synthesis can generate high-quality 3D
animations of digital humans performing a wide variety of actions and gestures.
However, there is still a notable technological gap in addressing the complex
dynamics of multi-human interactions within this paradigm. In this work, we
introduce ReMoS, a denoising diffusion-based probabilistic model for reactive
motion synthesis that explores two-person interactions. Given the motion of one
person, we synthesize the reactive motion of the second person to complete the
interactions between the two. In addition to synthesizing the full-body
motions, we also synthesize plausible hand interactions. We show the
performance of ReMoS under a wide range of challenging two-person scenarios
including pair-dancing, Ninjutsu, kickboxing, and acrobatics, where one
person's movements have complex and diverse influences on the motions of the
other. We further propose the ReMoCap dataset for two-person interactions
consisting of full-body and hand motions. We evaluate our approach through
multiple quantitative metrics, qualitative visualizations, and a user study.
Our results are usable in interactive applications while also providing an
adequate amount of control for animators.
- Abstract(参考訳): 3dモーション合成の現在のアプローチは、さまざまなアクションやジェスチャーを行うデジタル人間の高品質な3dアニメーションを生成することができる。
しかしながら、このパラダイムにおけるマルチヒューマンインタラクションの複雑なダイナミクスに対処する上で、依然として注目すべき技術的ギャップがある。
本研究では,2人間相互作用を探索する反応運動合成のための拡散に基づく確率モデルremosを提案する。
1人の動きを考慮し、2人目の反応運動を合成し、2人間の相互作用を完成させる。
また, 全身運動の合成に加えて, 可塑性ハンドインタラクションを合成する。
ペアダンス,忍術,キックボクシング,アクロバットなど,多岐にわたる対人シナリオにおいて,一方の動作が他方の動作に複雑かつ多様な影響を持つレモスのパフォーマンスを示す。
さらに,フルボディとハンドモーションからなる2人インタラクションのためのremocapデータセットを提案する。
我々は,複数の定量的指標,質的可視化,ユーザスタディを通じてアプローチを評価する。
この結果はインタラクティブなアプリケーションでも利用可能であり,アニメーターに十分なコントロールを提供する。
関連論文リスト
- Scaling Up Dynamic Human-Scene Interaction Modeling [60.21472701182632]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - NIFTY: Neural Object Interaction Fields for Guided Human Motion
Synthesis [21.650091018774972]
我々は、特定の物体に付随する神経相互作用場を作成し、人間のポーズを入力として与えられた有効な相互作用多様体までの距離を出力する。
この相互作用場は、対象条件付きヒトの運動拡散モデルのサンプリングを導く。
いくつかの物体で座ったり持ち上げたりするための現実的な動きを合成し、動きの質や動作完了の成功の観点から、代替のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-07-14T17:59:38Z) - InterGen: Diffusion-based Multi-human Motion Generation under Complex
Interactions [52.67456181120208]
動作拡散プロセスに人間と人間の相互作用を組み込んだ効果的な拡散ベースアプローチであるInterGenを提案する。
我々はまず、InterHumanという名前のマルチモーダルデータセットをコントリビュートする。これは、様々な2人インタラクションのための約107Mフレームで構成され、正確な骨格運動と23,337の自然言語記述を持つ。
本稿では,世界規模での2人のパフォーマーのグローバルな関係を明示的に定式化した対話拡散モデルにおける動作入力の表現を提案する。
論文 参考訳(メタデータ) (2023-04-12T08:12:29Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Locomotion-Action-Manipulation: Synthesizing Human-Scene Interactions in
Complex 3D Environments [11.87902527509297]
複雑な屋内環境下での自然および可塑性な長期的人間の運動を合成するために,LAMA, Locomotion-Action-Manipulationを提案する。
従来の3Dシーンをスキャンして「ペア化」する手法とは異なり、人間のモーションキャプチャーデータを合成にのみ使用することにより、テスト時間最適化として問題を定式化する。
論文 参考訳(メタデータ) (2023-01-09T18:59:16Z) - IMoS: Intent-Driven Full-Body Motion Synthesis for Human-Object
Interactions [69.95820880360345]
そこで本研究では,仮想人物の全身動作を3Dオブジェクトで合成する最初のフレームワークを提案する。
本システムでは,オブジェクトと仮想文字の関連意図を入力テキストとして記述する。
その結果, 80%以上のシナリオにおいて, 合成された全身運動は参加者よりリアルに見えることがわかった。
論文 参考訳(メタデータ) (2022-12-14T23:59:24Z) - SoMoFormer: Social-Aware Motion Transformer for Multi-Person Motion
Prediction [10.496276090281825]
本稿では,ソーシャル・アウェア・モーション・トランスフォーマー(SoMoFormer)を提案する。
SoMoFormerは、変位軌道空間のサブシーケンスから運動特徴を抽出し、各個人に対する局所的およびグローバルなポーズダイナミクスを学習する。
さらに,SoMoFormerに新たなソーシャル・アウェア・アテンション・アテンション・メカニズムを考案し,動的表現をさらに最適化し,相互依存を同時に捉える。
論文 参考訳(メタデータ) (2022-08-19T08:57:34Z) - Towards Diverse and Natural Scene-aware 3D Human Motion Synthesis [117.15586710830489]
本研究では,ターゲットアクションシーケンスの誘導の下で,多様なシーンを意識した人間の動作を合成する問題に焦点をあてる。
この因子化スキームに基づいて、各サブモジュールが1つの側面をモデリングする責任を負う階層的なフレームワークが提案されている。
実験の結果,提案手法は,多様性と自然性の観点から,従来の手法よりも著しく優れていた。
論文 参考訳(メタデータ) (2022-05-25T18:20:01Z) - GAN-based Reactive Motion Synthesis with Class-aware Discriminators for
Human-human Interaction [14.023527193608144]
本稿では,他のキャラクタからアクティブな動作を与えられたキャラクタの反応運動を合成する半教師付きGANシステムを提案する。
合成運動の高品質さは, ジェネレータの有効設計を示し, 合成の識別性もまた, 判別器の強度を示している。
論文 参考訳(メタデータ) (2021-10-01T13:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。