論文の概要: ST-GDance: Long-Term and Collision-Free Group Choreography from Music
- arxiv url: http://arxiv.org/abs/2507.21518v1
- Date: Tue, 29 Jul 2025 05:54:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.753188
- Title: ST-GDance: Long-Term and Collision-Free Group Choreography from Music
- Title(参考訳): ST-GDance:音楽からの長期・無衝突グループコレオグラフィ
- Authors: Jing Xu, Weiqiang Wang, Cunjian Chen, Jun Liu, Qiuhong Ke,
- Abstract要約: グループダンスは、映画、ゲーム、アニメーション制作に広く応用されている。
空間的・時間的依存関係を分離し,長期・衝突のないグループコレオグラフィーを最適化する新しいフレームワークST-GDanceを提案する。
- 参考スコア(独自算出の注目度): 40.600668304004344
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Group dance generation from music has broad applications in film, gaming, and animation production. However, it requires synchronizing multiple dancers while maintaining spatial coordination. As the number of dancers and sequence length increase, this task faces higher computational complexity and a greater risk of motion collisions. Existing methods often struggle to model dense spatial-temporal interactions, leading to scalability issues and multi-dancer collisions. To address these challenges, we propose ST-GDance, a novel framework that decouples spatial and temporal dependencies to optimize long-term and collision-free group choreography. We employ lightweight graph convolutions for distance-aware spatial modeling and accelerated sparse attention for efficient temporal modeling. This design significantly reduces computational costs while ensuring smooth and collision-free interactions. Experiments on the AIOZ-GDance dataset demonstrate that ST-GDance outperforms state-of-the-art baselines, particularly in generating long and coherent group dance sequences. Project page: https://yilliajing.github.io/ST-GDance-Website/.
- Abstract(参考訳): グループダンスは、映画、ゲーム、アニメーション制作に広く応用されている。
しかし、空間的調整を維持しながら複数のダンサーを同期させる必要がある。
ダンサーの数とシーケンスの長さが増加するにつれて、このタスクは計算の複雑さが増し、動きの衝突のリスクが高まる。
既存の手法は、しばしば密度の高い時空間相互作用をモデル化するのに苦労し、拡張性の問題と多段衝突につながる。
これらの課題に対処するため,ST-GDanceを提案する。ST-GDanceは空間的・時間的依存関係を分離し,長期・衝突のないグループ振付を最適化する新しいフレームワークである。
距離対応空間モデリングのための軽量グラフ畳み込みと、効率的な時間的モデリングのためのスパースアテンションを高速化する。
この設計は、スムーズで衝突のない相互作用を確実にしながら、計算コストを大幅に削減する。
AIOZ-GDanceデータセットの実験では、ST-GDanceは最先端のベースライン、特に長く一貫性のあるグループダンスシーケンスの生成において優れていた。
プロジェクトページ: https://yilliajing.github.io/ST-GDance-Website/
関連論文リスト
- TCDiff++: An End-to-end Trajectory-Controllable Diffusion Model for Harmonious Music-Driven Group Choreography [33.739289178393925]
TCDiff++は、調和したグループダンスを生成するように設計された音楽駆動のエンドツーエンドフレームワークである。
ダンサー同士の衝突を緩和するため,ダンサー間の相対的な位置決めをよりよく維持するために,ダンサーの位置決め埋め込みを利用する。
単段スライディングの問題に対処するために,ダンサースワッピングパターンを示すスワップモードの埋め込みを導入する。
論文 参考訳(メタデータ) (2025-06-23T14:15:20Z) - Scalable Group Choreography via Variational Phase Manifold Learning [8.504657927912076]
生成多様体の学習におけるグループダンス生成のための位相ベース変分生成モデルを提案する。
提案手法は,高忠実度群舞踊動作を実現し,無制限なダンサー生成を可能にする。
論文 参考訳(メタデータ) (2024-07-26T16:02:37Z) - LongDanceDiff: Long-term Dance Generation with Conditional Diffusion
Model [3.036230795326545]
LongDanceDiffは、シーケンス・ツー・シーケンスの長期ダンス生成のための条件付き拡散モデルである。
時間的一貫性と空間的制約の課題に対処する。
また,フットスライディングやアンスムース動作など,ダンス生成における視覚的品質の問題にも対処する。
論文 参考訳(メタデータ) (2023-08-23T06:37:41Z) - DiffDance: Cascaded Human Motion Diffusion Model for Dance Generation [89.50310360658791]
本稿では,高分解能長周期ダンス生成のための新しい動き拡散モデルDiffDanceを提案する。
本モデルは、音楽間拡散モデルとシーケンス超解像拡散モデルとから構成される。
DiffDanceは、入力された音楽と効果的に一致したリアルなダンスシーケンスを生成することができることを実証する。
論文 参考訳(メタデータ) (2023-08-05T16:18:57Z) - BRACE: The Breakdancing Competition Dataset for Dance Motion Synthesis [123.73677487809418]
ダンス・モーション・シンセサイザーにおける一般的な仮定に挑戦する新しいデータセットを提案する。
我々は、アクロバティックな動きと絡み合った姿勢を特徴とするブレイクダンスに焦点を当てている。
BRACEデータセットは、3時間30分以上の濃密な注釈付きポーズを含む。
論文 参考訳(メタデータ) (2022-07-20T18:03:54Z) - Bailando: 3D Dance Generation by Actor-Critic GPT with Choreographic
Memory [92.81383016482813]
そこで我々は3Dキャラクターを1曲の楽曲に追従して踊るための新しい音楽間距離フレームワークBailandoを提案する。
本稿では,音楽に忠実な流麗なダンスにユニットを構成するアクタ批判型生成事前学習変換器(GPT)を紹介する。
提案するフレームワークは,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-24T13:06:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。