論文の概要: Large-Scale Multi-Character Interaction Synthesis
- arxiv url: http://arxiv.org/abs/2505.14087v1
- Date: Tue, 20 May 2025 08:49:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.944779
- Title: Large-Scale Multi-Character Interaction Synthesis
- Title(参考訳): 大規模多要素相互作用合成
- Authors: Ziyi Chang, He Wang, George Alex Koulieris, Hubert P. H. Shum,
- Abstract要約: 相互作用合成のための協調可能な多文字相互作用空間と協調のための遷移計画ネットワークからなる条件生成パイプラインを提案する。
既存のデータセットは複数の文字を持っていないか、密接で密接な相互作用を持っていない。
- 参考スコア(独自算出の注目度): 13.992868723420836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating large-scale multi-character interactions is a challenging and important task in character animation. Multi-character interactions involve not only natural interactive motions but also characters coordinated with each other for transition. For example, a dance scenario involves characters dancing with partners and also characters coordinated to new partners based on spatial and temporal observations. We term such transitions as coordinated interactions and decompose them into interaction synthesis and transition planning. Previous methods of single-character animation do not consider interactions that are critical for multiple characters. Deep-learning-based interaction synthesis usually focuses on two characters and does not consider transition planning. Optimization-based interaction synthesis relies on manually designing objective functions that may not generalize well. While crowd simulation involves more characters, their interactions are sparse and passive. We identify two challenges to multi-character interaction synthesis, including the lack of data and the planning of transitions among close and dense interactions. Existing datasets either do not have multiple characters or do not have close and dense interactions. The planning of transitions for multi-character close and dense interactions needs both spatial and temporal considerations. We propose a conditional generative pipeline comprising a coordinatable multi-character interaction space for interaction synthesis and a transition planning network for coordinations. Our experiments demonstrate the effectiveness of our proposed pipeline for multicharacter interaction synthesis and the applications facilitated by our method show the scalability and transferability.
- Abstract(参考訳): 大規模なマルチキャラクタインタラクションの生成は,文字アニメーションにおいて困難かつ重要な課題である。
マルチキャラクタ相互作用は、自然なインタラクティブな動きだけでなく、遷移のために互いに調整された文字も含む。
例えば、ダンスシナリオは、パートナーと踊るキャラクターと、空間的および時間的観察に基づいて新しいパートナーに調整されたキャラクターを含む。
このような遷移を協調的相互作用と呼び、それらを相互作用合成と遷移計画に分解する。
従来の単一文字アニメーションの方法は、複数の文字にとって重要な相互作用を考慮しない。
深層学習に基づく相互作用合成は、通常2つの文字に焦点を当て、遷移計画を考慮していない。
最適化に基づく相互作用合成は、うまく一般化できない対象関数を手動で設計することに依存する。
群衆シミュレーションにはより多くのキャラクタが含まれるが、それらの相互作用はスパースで受動的である。
データ不足や密接な相互作用と密接な相互作用間の遷移の計画など、マルチキャラクタ相互作用合成における2つの課題を特定する。
既存のデータセットは複数の文字を持っていないか、密接で密接な相互作用を持っていない。
複数文字の密接な相互作用と密接な相互作用の遷移の計画には、空間的および時間的考慮が必要である。
相互作用合成のための協調可能な多文字相互作用空間と協調のための遷移計画ネットワークからなる条件生成パイプラインを提案する。
提案したパイプラインによるマルチキャラクタ相互作用合成の有効性を実証し,本手法で実現した応用はスケーラビリティと転送性を示す。
関連論文リスト
- A Unified Framework for Motion Reasoning and Generation in Human Interaction [28.736843383405603]
本稿では,言語と運動の両モードを統合したVersatile Interactive Motion-Languageモデルを提案する。
VIMは、動きとテキストのモダリティの両方を同時に理解し、生成することができる。
我々は,動画像のテキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト)、反応生成,動作編集,および動作系列の推論を含む複数の対話的動作関連タスク
論文 参考訳(メタデータ) (2024-10-08T02:23:53Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - InterGen: Diffusion-based Multi-human Motion Generation under Complex Interactions [49.097973114627344]
動作拡散プロセスに人間と人間の相互作用を組み込んだ効果的な拡散ベースアプローチであるInterGenを提案する。
我々はまず、InterHumanという名前のマルチモーダルデータセットをコントリビュートする。これは、様々な2人インタラクションのための約107Mフレームで構成され、正確な骨格運動と23,337の自然言語記述を持つ。
本稿では,世界規模での2人のパフォーマーのグローバルな関係を明示的に定式化した対話拡散モデルにおける動作入力の表現を提案する。
論文 参考訳(メタデータ) (2023-04-12T08:12:29Z) - Interaction Mix and Match: Synthesizing Close Interaction using
Conditional Hierarchical GAN with Multi-Hot Class Embedding [4.864897201841002]
本研究では,異なる種類の密接な相互作用を混合し,マッチングすることで,リアルな人間の反応運動を作り出す新しい方法を提案する。
実験はノイズ(深度ベース)と高品質(リバーサベース)の相互作用データセットの両方で実施される。
論文 参考訳(メタデータ) (2022-07-23T16:13:10Z) - Interaction Transformer for Human Reaction Generation [61.22481606720487]
本稿では,時間的,空間的両方の注意を持つトランスフォーマーネットワークからなる対話型トランスフォーマー(InterFormer)を提案する。
我々の手法は一般的であり、より複雑で長期的な相互作用を生成するのに利用できる。
論文 参考訳(メタデータ) (2022-07-04T19:30:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。