論文の概要: TCDiff++: An End-to-end Trajectory-Controllable Diffusion Model for Harmonious Music-Driven Group Choreography
- arxiv url: http://arxiv.org/abs/2506.18671v3
- Date: Thu, 26 Jun 2025 13:53:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 13:31:57.731371
- Title: TCDiff++: An End-to-end Trajectory-Controllable Diffusion Model for Harmonious Music-Driven Group Choreography
- Title(参考訳): TCDiff++:高調な音楽駆動グループコレオグラフィのためのエンドツーエンドの軌道制御可能な拡散モデル
- Authors: Yuqin Dai, Wanlu Zhu, Ronghui Li, Xiu Li, Zhenyu Zhang, Jun Li, Jian Yang,
- Abstract要約: TCDiff++は、調和したグループダンスを生成するように設計された音楽駆動のエンドツーエンドフレームワークである。
ダンサー同士の衝突を緩和するため,ダンサー間の相対的な位置決めをよりよく維持するために,ダンサーの位置決め埋め込みを利用する。
単段スライディングの問題に対処するために,ダンサースワッピングパターンを示すスワップモードの埋め込みを導入する。
- 参考スコア(独自算出の注目度): 33.739289178393925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Music-driven dance generation has garnered significant attention due to its wide range of industrial applications, particularly in the creation of group choreography. During the group dance generation process, however, most existing methods still face three primary issues: multi-dancer collisions, single-dancer foot sliding and abrupt swapping in the generation of long group dance. In this paper, we propose TCDiff++, a music-driven end-to-end framework designed to generate harmonious group dance. Specifically, to mitigate multi-dancer collisions, we utilize a dancer positioning embedding to better maintain the relative positioning among dancers. Additionally, we incorporate a distance-consistency loss to ensure that inter-dancer distances remain within plausible ranges. To address the issue of single-dancer foot sliding, we introduce a swap mode embedding to indicate dancer swapping patterns and design a Footwork Adaptor to refine raw motion, thereby minimizing foot sliding. For long group dance generation, we present a long group diffusion sampling strategy that reduces abrupt position shifts by injecting positional information into the noisy input. Furthermore, we integrate a Sequence Decoder layer to enhance the model's ability to selectively process long sequences. Extensive experiments demonstrate that our TCDiff++ achieves state-of-the-art performance, particularly in long-duration scenarios, ensuring high-quality and coherent group dance generation.
- Abstract(参考訳): 音楽によるダンス生成は、特にグループ振付の作成において、幅広い産業的応用のために大きな注目を集めている。
しかし、グループダンス生成の過程では、既存のほとんどの手法は、マルチダンサー衝突、シングルダンサーフットスライディング、ロンググループダンスの生成における急激なスワップの3つの主要な問題に直面している。
本稿では、調和したグループダンスを生成するように設計された音楽駆動のエンドツーエンドフレームワークであるTCDiff++を提案する。
具体的には、ダンサー同士の衝突を緩和するために、ダンサーの位置決め埋め込みを利用して、ダンサー間の相対的な位置決めをよりよく維持する。
さらに,距離不整合損失を組み込んで,ドローン間距離が可算範囲内に留まることを確かめる。
単段フットスライディングの問題に対処するため、ダンサースワップパターンを示すスワップモードの埋め込みを導入し、フットワークアダプタを設計して生の動きを洗練し、フットスライディングを最小化する。
長時間のグループダンス生成のために,ノイズ入力に位置情報を注入することにより,突然の位置ずれを低減する長グループ拡散サンプリング戦略を提案する。
さらに、長いシーケンスを選択的に処理するモデルの能力を高めるために、シーケンスデコーダ層を統合する。
大規模な実験により、TDiff++は最先端のパフォーマンス、特に長期化のシナリオにおいて、高品質で一貫性のあるグループダンス生成を実現しています。
関連論文リスト
- Scalable Group Choreography via Variational Phase Manifold Learning [8.504657927912076]
生成多様体の学習におけるグループダンス生成のための位相ベース変分生成モデルを提案する。
提案手法は,高忠実度群舞踊動作を実現し,無制限なダンサー生成を可能にする。
論文 参考訳(メタデータ) (2024-07-26T16:02:37Z) - Duolando: Follower GPT with Off-Policy Reinforcement Learning for Dance Accompaniment [87.20240797625648]
舞踊伴奏と呼ばれる3次元舞踊生成の分野における新しい課題を紹介する。
これは、リードダンサーの動きと、基礎となる音楽リズムと同期した「フォロワー」と呼ばれるダンスパートナーからの応答的な動きを生成する必要がある。
本稿では,GPTに基づくDuolandoモデルを提案する。このモデルでは,音楽の協調情報,リーダの動作,従者の動きに基づいて,後続のトークン化動作を自動回帰予測する。
論文 参考訳(メタデータ) (2024-03-27T17:57:02Z) - Lodge: A Coarse to Fine Diffusion Network for Long Dance Generation Guided by the Characteristic Dance Primitives [50.37531720524434]
与えられた音楽に条件付けされた非常に長いダンスシーケンスを生成することができるネットワークであるLodgeを提案する。
提案手法は,グローバルな振付パターンと局所的な動きの質,表現性とのバランスを保ちながら,非常に長いダンスシーケンスを並列に生成することができる。
論文 参考訳(メタデータ) (2024-03-15T17:59:33Z) - Harmonious Group Choreography with Trajectory-Controllable Diffusion [11.704817108195815]
本稿では,コヒーレントかつ調和の取れたダンス運動を生成するために,トラジェクティブ・コンストラクタブル・ディフュージョン(TCDiff)フレームワークを提案する。
衝突を緩和するために,複数のダンサーに対する無衝突軌道を生成するDance-Trajectory Navigatorを導入する。
また,フレーム間の変位を相対的な前方運動損失に支えて調整するフットワーク適応器を提案する。
論文 参考訳(メタデータ) (2024-03-10T12:11:34Z) - DiffDance: Cascaded Human Motion Diffusion Model for Dance Generation [89.50310360658791]
本稿では,高分解能長周期ダンス生成のための新しい動き拡散モデルDiffDanceを提案する。
本モデルは、音楽間拡散モデルとシーケンス超解像拡散モデルとから構成される。
DiffDanceは、入力された音楽と効果的に一致したリアルなダンスシーケンスを生成することができることを実証する。
論文 参考訳(メタデータ) (2023-08-05T16:18:57Z) - Bailando: 3D Dance Generation by Actor-Critic GPT with Choreographic
Memory [92.81383016482813]
そこで我々は3Dキャラクターを1曲の楽曲に追従して踊るための新しい音楽間距離フレームワークBailandoを提案する。
本稿では,音楽に忠実な流麗なダンスにユニットを構成するアクタ批判型生成事前学習変換器(GPT)を紹介する。
提案するフレームワークは,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-24T13:06:43Z) - Music-to-Dance Generation with Optimal Transport [48.92483627635586]
本稿では,音楽から3Dダンス振付を生成するためのMDOT-Net(Music-to-Dance with Optimal Transport Network)を提案する。
生成したダンス分布とグロモフ=ワッサーシュタイン距離の信頼度を評価するための最適な移動距離を導入し、ダンス分布と入力音楽の対応性を測定する。
論文 参考訳(メタデータ) (2021-12-03T09:37:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。