論文の概要: InterSyn: Interleaved Learning for Dynamic Motion Synthesis in the Wild
- arxiv url: http://arxiv.org/abs/2508.10297v1
- Date: Thu, 14 Aug 2025 03:00:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.163089
- Title: InterSyn: Interleaved Learning for Dynamic Motion Synthesis in the Wild
- Title(参考訳): InterSyn: 野生における動的運動合成のためのインターリーブ型学習
- Authors: Yiyi Ma, Yuanzhi Liang, Xiu Li, Chi Zhang, Xuelong Li,
- Abstract要約: 本稿では,リアルなインタラクション動作の生成を目標とする新しいフレームワークであるInterleaved Learning for Motion Synthesis(InterSyn)を提案する。
InterSynはインターリーブド・ラーニング・ストラテジーを用いて、現実世界のシナリオに固有の自然な動的相互作用とニュアンスド・コーディネーションを捉えている。
- 参考スコア(独自算出の注目度): 65.29569330744056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Interleaved Learning for Motion Synthesis (InterSyn), a novel framework that targets the generation of realistic interaction motions by learning from integrated motions that consider both solo and multi-person dynamics. Unlike previous methods that treat these components separately, InterSyn employs an interleaved learning strategy to capture the natural, dynamic interactions and nuanced coordination inherent in real-world scenarios. Our framework comprises two key modules: the Interleaved Interaction Synthesis (INS) module, which jointly models solo and interactive behaviors in a unified paradigm from a first-person perspective to support multiple character interactions, and the Relative Coordination Refinement (REC) module, which refines mutual dynamics and ensures synchronized motions among characters. Experimental results show that the motion sequences generated by InterSyn exhibit higher text-to-motion alignment and improved diversity compared with recent methods, setting a new benchmark for robust and natural motion synthesis. Additionally, our code will be open-sourced in the future to promote further research and development in this area.
- Abstract(参考訳): 動作合成のためのインターリーブド・ラーニング(Interleaved Learning for Motion Synthesis, InterSyn)は, 単独動作と多人数動作の両方を考慮した統合動作から学習することで, 現実的な対話動作の生成を目標とする新しいフレームワークである。
これらのコンポーネントを別々に扱う従来の方法とは異なり、InterSynはインターリーブド・ラーニング・ストラテジーを使用して、現実世界のシナリオに固有の自然な動的相互作用とニュアンスド・コーディネーションをキャプチャする。
本フレームワークは,複数文字の相互作用をサポートするために,一貫したパラダイムで単独動作と対話動作を共同でモデル化するInterleaved Interaction Synthesis (INS)モジュールと,相互ダイナミクスを洗練し,文字間の同期動作を保証するRelative Coordination Refinement (REC)モジュールの2つの主要なモジュールから構成される。
実験結果から,InterSyn が生成した動き系列は,最近の手法と比較してテキスト間アライメントが向上し,多様性が向上し,ロバストかつ自然な動き合成のための新しいベンチマークが設定された。
さらに、この領域のさらなる研究と開発を促進するために、私たちのコードは将来オープンソースになる予定です。
関連論文リスト
- AsynFusion: Towards Asynchronous Latent Consistency Models for Decoupled Whole-Body Audio-Driven Avatars [65.53676584955686]
全体オーディオ駆動型アバターポーズと表現生成は、生命に似たデジタル人間を作るための重要なタスクである。
本稿では,拡散変換器を応用し,結合表現とジェスチャ合成を実現する新しいフレームワークAsynFusionを提案する。
AsynFusionは、リアルタイムで同期された全身アニメーションを生成する際に最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-21T03:28:53Z) - A Unified Framework for Motion Reasoning and Generation in Human Interaction [28.736843383405603]
本稿では,言語と運動の両モードを統合したVersatile Interactive Motion-Languageモデルを提案する。
VIMは、動きとテキストのモダリティの両方を同時に理解し、生成することができる。
我々は,動画像のテキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト)、反応生成,動作編集,および動作系列の推論を含む複数の対話的動作関連タスク
論文 参考訳(メタデータ) (2024-10-08T02:23:53Z) - TextIM: Part-aware Interactive Motion Synthesis from Text [25.91739105467082]
TextIMは、TEXT駆動のヒューマンインタラクティブモーションを合成するための新しいフレームワークである。
我々のアプローチは、人間の脳として機能する大きな言語モデルを利用して、相互作用する人間の身体部分を特定する。
トレーニングと評価のために,HUMANML3Dからインタラクティブな動きを慎重に選択し,再ラベルし,特殊なデータセットを開発した。
論文 参考訳(メタデータ) (2024-08-06T17:08:05Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。