論文の概要: ReMoS: Reactive 3D Motion Synthesis for Two-Person Interactions
- arxiv url: http://arxiv.org/abs/2311.17057v1
- Date: Tue, 28 Nov 2023 18:59:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 17:01:20.834496
- Title: ReMoS: Reactive 3D Motion Synthesis for Two-Person Interactions
- Title(参考訳): ReMoS:2パーソンインタラクションのためのリアクティブ3次元モーション合成
- Authors: Anindita Ghosh and Rishabh Dabral and Vladislav Golyanik and Christian
Theobalt and Philipp Slusallek
- Abstract要約: 本稿では,反応運動合成のための拡散型確率モデルReMoSを紹介する。
本稿では,ペアダンス,忍術,キックボクシング,アクロバティックスなど,多岐にわたる難解な2人シナリオ下でのReMoSの性能を示す。
この結果はインタラクティブなアプリケーションでも利用でき、アニメーターに十分な量の制御を提供する。
- 参考スコア(独自算出の注目度): 71.74348331841057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current approaches for 3D human motion synthesis can generate high-quality 3D
animations of digital humans performing a wide variety of actions and gestures.
However, there is still a notable technological gap in addressing the complex
dynamics of multi-human interactions within this paradigm. In this work, we
introduce ReMoS, a denoising diffusion-based probabilistic model for reactive
motion synthesis that explores two-person interactions. Given the motion of one
person, we synthesize the reactive motion of the second person to complete the
interactions between the two. In addition to synthesizing the full-body
motions, we also synthesize plausible hand interactions. We show the
performance of ReMoS under a wide range of challenging two-person scenarios
including pair-dancing, Ninjutsu, kickboxing, and acrobatics, where one
person's movements have complex and diverse influences on the motions of the
other. We further propose the ReMoCap dataset for two-person interactions
consisting of full-body and hand motions. We evaluate our approach through
multiple quantitative metrics, qualitative visualizations, and a user study.
Our results are usable in interactive applications while also providing an
adequate amount of control for animators.
- Abstract(参考訳): 3dモーション合成の現在のアプローチは、さまざまなアクションやジェスチャーを行うデジタル人間の高品質な3dアニメーションを生成することができる。
しかしながら、このパラダイムにおけるマルチヒューマンインタラクションの複雑なダイナミクスに対処する上で、依然として注目すべき技術的ギャップがある。
本研究では,2人間相互作用を探索する反応運動合成のための拡散に基づく確率モデルremosを提案する。
1人の動きを考慮し、2人目の反応運動を合成し、2人間の相互作用を完成させる。
また, 全身運動の合成に加えて, 可塑性ハンドインタラクションを合成する。
ペアダンス,忍術,キックボクシング,アクロバットなど,多岐にわたる対人シナリオにおいて,一方の動作が他方の動作に複雑かつ多様な影響を持つレモスのパフォーマンスを示す。
さらに,フルボディとハンドモーションからなる2人インタラクションのためのremocapデータセットを提案する。
我々は,複数の定量的指標,質的可視化,ユーザスタディを通じてアプローチを評価する。
この結果はインタラクティブなアプリケーションでも利用可能であり,アニメーターに十分なコントロールを提供する。
関連論文リスト
- in2IN: Leveraging individual Information to Generate Human INteractions [29.495166514135295]
In2IN(in2IN)は、人間と人間の動作生成を個別に記述した新しい拡散モデルである。
In2INで生成された動きと、HumanML3Dで事前訓練された1人の動きによって生成された動きとを組み合わせたモデル合成手法であるDualMDMを提案する。
論文 参考訳(メタデータ) (2024-04-15T17:59:04Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - Persistent-Transient Duality: A Multi-mechanism Approach for Modeling
Human-Object Interaction [58.67761673662716]
人間は高度に適応可能で、異なるタスク、状況、状況を扱うために異なるモードを素早く切り替える。
人間と物体の相互作用(HOI)において、これらのモードは、(1)活動全体に対する大規模な一貫した計画、(2)タイムラインに沿って開始・終了する小規模の子どもの対話的行動の2つのメカニズムに起因していると考えられる。
本研究は、人間の動作を協調的に制御する2つの同時メカニズムをモデル化することを提案する。
論文 参考訳(メタデータ) (2023-07-24T12:21:33Z) - NIFTY: Neural Object Interaction Fields for Guided Human Motion
Synthesis [21.650091018774972]
我々は、特定の物体に付随する神経相互作用場を作成し、人間のポーズを入力として与えられた有効な相互作用多様体までの距離を出力する。
この相互作用場は、対象条件付きヒトの運動拡散モデルのサンプリングを導く。
いくつかの物体で座ったり持ち上げたりするための現実的な動きを合成し、動きの質や動作完了の成功の観点から、代替のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-07-14T17:59:38Z) - IMoS: Intent-Driven Full-Body Motion Synthesis for Human-Object
Interactions [69.95820880360345]
そこで本研究では,仮想人物の全身動作を3Dオブジェクトで合成する最初のフレームワークを提案する。
本システムでは,オブジェクトと仮想文字の関連意図を入力テキストとして記述する。
その結果, 80%以上のシナリオにおいて, 合成された全身運動は参加者よりリアルに見えることがわかった。
論文 参考訳(メタデータ) (2022-12-14T23:59:24Z) - SoMoFormer: Social-Aware Motion Transformer for Multi-Person Motion
Prediction [10.496276090281825]
本稿では,ソーシャル・アウェア・モーション・トランスフォーマー(SoMoFormer)を提案する。
SoMoFormerは、変位軌道空間のサブシーケンスから運動特徴を抽出し、各個人に対する局所的およびグローバルなポーズダイナミクスを学習する。
さらに,SoMoFormerに新たなソーシャル・アウェア・アテンション・アテンション・メカニズムを考案し,動的表現をさらに最適化し,相互依存を同時に捉える。
論文 参考訳(メタデータ) (2022-08-19T08:57:34Z) - Towards Diverse and Natural Scene-aware 3D Human Motion Synthesis [117.15586710830489]
本研究では,ターゲットアクションシーケンスの誘導の下で,多様なシーンを意識した人間の動作を合成する問題に焦点をあてる。
この因子化スキームに基づいて、各サブモジュールが1つの側面をモデリングする責任を負う階層的なフレームワークが提案されている。
実験の結果,提案手法は,多様性と自然性の観点から,従来の手法よりも著しく優れていた。
論文 参考訳(メタデータ) (2022-05-25T18:20:01Z) - GAN-based Reactive Motion Synthesis with Class-aware Discriminators for
Human-human Interaction [14.023527193608144]
本稿では,他のキャラクタからアクティブな動作を与えられたキャラクタの反応運動を合成する半教師付きGANシステムを提案する。
合成運動の高品質さは, ジェネレータの有効設計を示し, 合成の識別性もまた, 判別器の強度を示している。
論文 参考訳(メタデータ) (2021-10-01T13:13:07Z) - Scene-aware Generative Network for Human Motion Synthesis [125.21079898942347]
シーンと人間の動きの相互作用を考慮した新しい枠組みを提案する。
人間の動きの不確実性を考慮すると、このタスクを生成タスクとして定式化する。
我々は、人間の動きと文脈シーンとの整合性を強制するための識別器を備えた、GANに基づく学習アプローチを導出する。
論文 参考訳(メタデータ) (2021-05-31T09:05:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。