論文の概要: Multi-Person Interaction Generation from Two-Person Motion Priors
- arxiv url: http://arxiv.org/abs/2505.17860v1
- Date: Fri, 23 May 2025 13:13:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:34.091776
- Title: Multi-Person Interaction Generation from Two-Person Motion Priors
- Title(参考訳): 2パーソン動作前処理による複数パーソンインタラクション生成
- Authors: Wenning Xu, Shiyu Fan, Paul Henderson, Edmond S. L. Ho,
- Abstract要約: グラフ駆動インタラクションサンプリングは、現実的で多様な多人数インタラクションを生成する方法である。
生成タスクを、互いの動作に条件付けられた同時1対1の動作生成に分解する。
提案手法は,多人数・多人数のインタラクションを広範囲に生成する際の工芸品の削減において,既存の手法よりも一貫して優れる。
- 参考スコア(独自算出の注目度): 7.253302825595181
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generating realistic human motion with high-level controls is a crucial task for social understanding, robotics, and animation. With high-quality MOCAP data becoming more available recently, a wide range of data-driven approaches have been presented. However, modelling multi-person interactions still remains a less explored area. In this paper, we present Graph-driven Interaction Sampling, a method that can generate realistic and diverse multi-person interactions by leveraging existing two-person motion diffusion models as motion priors. Instead of training a new model specific to multi-person interaction synthesis, our key insight is to spatially and temporally separate complex multi-person interactions into a graph structure of two-person interactions, which we name the Pairwise Interaction Graph. We thus decompose the generation task into simultaneous single-person motion generation conditioned on one other's motion. In addition, to reduce artifacts such as interpenetrations of body parts in generated multi-person interactions, we introduce two graph-dependent guidance terms into the diffusion sampling scheme. Unlike previous work, our method can produce various high-quality multi-person interactions without having repetitive individual motions. Extensive experiments demonstrate that our approach consistently outperforms existing methods in reducing artifacts when generating a wide range of two-person and multi-person interactions.
- Abstract(参考訳): 高レベルのコントロールでリアルな人間の動きを生成することは、社会的理解、ロボット工学、アニメーションにとって重要なタスクである。
近年、高品質なMOCAPデータがより利用できるようになったため、幅広いデータ駆動型アプローチが提示されている。
しかし、マルチパーソンインタラクションのモデル化はいまだにあまり検討されていない領域である。
本稿では、既存の2人動拡散モデルを動作先行として活用することにより、現実的で多様な多人数インタラクションを生成できるグラフ駆動インタラクションサンプリングを提案する。
多対人相互作用合成に特有の新しいモデルを訓練する代わりに、我々の重要な洞察は、複雑な多対人相互作用を空間的かつ時間的に2対人相互作用のグラフ構造に分離することであり、これはペアワイズ・インタラクション・グラフ(Pairwise Interaction Graph)と呼ばれる。
そこで我々は,生成タスクを,互いの動作に条件付けられた同時1対1の動作生成に分解する。
さらに,生成した多人数インタラクションにおける身体部分の相互接続などのアーティファクトを削減するため,拡散サンプリング方式に2つのグラフ依存誘導項を導入する。
従来と異なり,本手法では,反復的な個人動作を伴わずに,高品質な多人数インタラクションを実現することができる。
広汎な実験により,2人・複数人のインタラクションを広範囲に生成する際の工芸品削減において,既存の手法を一貫して上回る結果が得られた。
関連論文リスト
- Two-in-One: Unified Multi-Person Interactive Motion Generation by Latent Diffusion Transformer [24.166147954731652]
多人数対話型モーション生成はコンピュータ・キャラクター・アニメーションにおける重要な領域であるが、未探索領域である。
現在の研究では、個々の動作に別々のモジュールブランチを使用することが多いため、インタラクション情報が失われる。
本稿では,複数の人物の動きとその相互作用を1つの潜在空間内でモデル化する,新しい統一的アプローチを提案する。
論文 参考訳(メタデータ) (2024-12-21T15:35:50Z) - in2IN: Leveraging individual Information to Generate Human INteractions [29.495166514135295]
In2IN(in2IN)は、人間と人間の動作生成を個別に記述した新しい拡散モデルである。
In2INで生成された動きと、HumanML3Dで事前訓練された1人の動きによって生成された動きとを組み合わせたモデル合成手法であるDualMDMを提案する。
論文 参考訳(メタデータ) (2024-04-15T17:59:04Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - InterGen: Diffusion-based Multi-human Motion Generation under Complex Interactions [49.097973114627344]
動作拡散プロセスに人間と人間の相互作用を組み込んだ効果的な拡散ベースアプローチであるInterGenを提案する。
我々はまず、InterHumanという名前のマルチモーダルデータセットをコントリビュートする。これは、様々な2人インタラクションのための約107Mフレームで構成され、正確な骨格運動と23,337の自然言語記述を持つ。
本稿では,世界規模での2人のパフォーマーのグローバルな関係を明示的に定式化した対話拡散モデルにおける動作入力の表現を提案する。
論文 参考訳(メタデータ) (2023-04-12T08:12:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。