論文の概要: Motion In-Betweening for Densely Interacting Characters
- arxiv url: http://arxiv.org/abs/2510.00314v1
- Date: Tue, 30 Sep 2025 22:11:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 14:32:17.179293
- Title: Motion In-Betweening for Densely Interacting Characters
- Title(参考訳): 巧妙に相互作用するキャラクタの動作間移動
- Authors: Xiaotang Zhang, Ziyi Chang, Qianhui Men, Hubert P. H. Shum,
- Abstract要約: キーセプション間の動きを合成する問題である。
本研究では,2文字が互いに自然に関わり,反応し合う長軸相互作用の手法を提案する。
- 参考スコア(独自算出の注目度): 17.863671809124295
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Motion in-betweening is the problem to synthesize movement between keyposes. Traditional research focused primarily on single characters. Extending them to densely interacting characters is highly challenging, as it demands precise spatial-temporal correspondence between the characters to maintain the interaction, while creating natural transitions towards predefined keyposes. In this research, we present a method for long-horizon interaction in-betweening that enables two characters to engage and respond to one another naturally. To effectively represent and synthesize interactions, we propose a novel solution called Cross-Space In-Betweening, which models the interactions of each character across different conditioning representation spaces. We further observe that the significantly increased constraints in interacting characters heavily limit the solution space, leading to degraded motion quality and diminished interaction over time. To enable long-horizon synthesis, we present two solutions to maintain long-term interaction and motion quality, thereby keeping synthesis in the stable region of the solution space.We first sustain interaction quality by identifying periodic interaction patterns through adversarial learning. We further maintain the motion quality by learning to refine the drifted latent space and prevent pose error accumulation. We demonstrate that our approach produces realistic, controllable, and long-horizon in-between motions of two characters with dynamic boxing and dancing actions across multiple keyposes, supported by extensive quantitative evaluations and user studies.
- Abstract(参考訳): キーセプション間の動きを合成する問題である。
伝統的な研究は、主にシングルキャラクターに焦点を当てていた。
それらが密接な相互作用を持つ文字に拡張することは非常に困難である。
本研究では,両キャラクタが自然に対話し,反応できる長軸相互作用の手法を提案する。
相互作用を効果的に表現し、合成するために、異なる条件付き表現空間にまたがる各文字の相互作用をモデル化するクロススペース・イン・ベトワイニング(Cross-Space In-Betweening)と呼ばれる新しい解を提案する。
さらに、相互作用する文字の制約が大幅に増加し、解空間が大幅に制限され、運動の質が低下し、時間とともに相互作用が低下することが観察された。
本研究では,長期的相互作用と運動の質を維持するための2つのソリューションを提案する。これにより,解空間の安定な領域における合成を維持でき,まず,対向学習を通じて周期的相互作用パターンを同定することで,相互作用の質を維持できる。
我々は、漂流した潜伏空間を洗練させ、ポーズエラーの蓄積を防止することを学ぶことで、動きの質をさらに維持する。
提案手法は,複数のキーにまたがる動的ボクシングとダンス動作を持つ2つのキャラクターの現実的,制御可能,長期にわたる動きを再現し,定量的評価とユーザスタディによって支援されている。
関連論文リスト
- InterSyn: Interleaved Learning for Dynamic Motion Synthesis in the Wild [65.29569330744056]
本稿では,リアルなインタラクション動作の生成を目標とする新しいフレームワークであるInterleaved Learning for Motion Synthesis(InterSyn)を提案する。
InterSynはインターリーブド・ラーニング・ストラテジーを用いて、現実世界のシナリオに固有の自然な動的相互作用とニュアンスド・コーディネーションを捉えている。
論文 参考訳(メタデータ) (2025-08-14T03:00:06Z) - Large-Scale Multi-Character Interaction Synthesis [13.992868723420836]
相互作用合成のための協調可能な多文字相互作用空間と協調のための遷移計画ネットワークからなる条件生成パイプラインを提案する。
既存のデータセットは複数の文字を持っていないか、密接で密接な相互作用を持っていない。
論文 参考訳(メタデータ) (2025-05-20T08:49:27Z) - Two-in-One: Unified Multi-Person Interactive Motion Generation by Latent Diffusion Transformer [24.166147954731652]
多人数対話型モーション生成はコンピュータ・キャラクター・アニメーションにおける重要な領域であるが、未探索領域である。
現在の研究では、個々の動作に別々のモジュールブランチを使用することが多いため、インタラクション情報が失われる。
本稿では,複数の人物の動きとその相互作用を1つの潜在空間内でモデル化する,新しい統一的アプローチを提案する。
論文 参考訳(メタデータ) (2024-12-21T15:35:50Z) - Two-Person Interaction Augmentation with Skeleton Priors [16.65884142618145]
本稿では,2体インタラクション運動増強のための新しい深層学習法を提案する。
我々のシステムは比較的少量のデータから効果的に学習でき、骨格サイズが大幅に異なるように一般化できる。
論文 参考訳(メタデータ) (2024-04-08T13:11:57Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - Interaction Transformer for Human Reaction Generation [61.22481606720487]
本稿では,時間的,空間的両方の注意を持つトランスフォーマーネットワークからなる対話型トランスフォーマー(InterFormer)を提案する。
我々の手法は一般的であり、より複雑で長期的な相互作用を生成するのに利用できる。
論文 参考訳(メタデータ) (2022-07-04T19:30:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。