論文の概要: FlowerDance: MeanFlow for Efficient and Refined 3D Dance Generation
- arxiv url: http://arxiv.org/abs/2511.21029v1
- Date: Wed, 26 Nov 2025 03:53:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.954317
- Title: FlowerDance: MeanFlow for Efficient and Refined 3D Dance Generation
- Title(参考訳): FlowerDance: 効率的な3Dダンス生成のための平均フロー
- Authors: Kaixing Yang, Xulong Tang, Ziqiao Peng, Xiangyue Zhang, Puwei Wang, Jun He, Hongyan Liu,
- Abstract要約: 音楽からダンスへの生成は、聴覚信号を人間の表情に翻訳することを目的としており、仮想現実、振付、デジタルエンターテイメントに広く応用されている。
本稿では,身体的可視性と芸術的表現性を持った洗練された動きを生成できるだけでなく,推論速度やメモリ利用において,優れた生成効率を実現するフラワーダンスを提案する。
- 参考スコア(独自算出の注目度): 9.587067781689331
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Music-to-dance generation aims to translate auditory signals into expressive human motion, with broad applications in virtual reality, choreography, and digital entertainment. Despite promising progress, the limited generation efficiency of existing methods leaves insufficient computational headroom for high-fidelity 3D rendering, thereby constraining the expressiveness of 3D characters during real-world applications. Thus, we propose FlowerDance, which not only generates refined motion with physical plausibility and artistic expressiveness, but also achieves significant generation efficiency on inference speed and memory utilization . Specifically, FlowerDance combines MeanFlow with Physical Consistency Constraints, which enables high-quality motion generation with only a few sampling steps. Moreover, FlowerDance leverages a simple but efficient model architecture with BiMamba-based backbone and Channel-Level Cross-Modal Fusion, which generates dance with efficient non-autoregressive manner. Meanwhile, FlowerDance supports motion editing, enabling users to interactively refine dance sequences. Extensive experiments on AIST++ and FineDance show that FlowerDance achieves state-of-the-art results in both motion quality and generation efficiency. Code will be released upon acceptance.
- Abstract(参考訳): 音楽からダンスへの生成は、聴覚信号を人間の表情に翻訳することを目的としており、仮想現実、振付、デジタルエンターテイメントに広く応用されている。
有望な進歩にもかかわらず、既存の手法の限られた生成効率は、高忠実度3Dレンダリングに不十分な計算ヘッドルームを残し、現実の応用における3D文字の表現性を制限している。
そこで本研究では,身体的可視性と芸術的表現性を持った洗練された動きを生成できるだけでなく,推論速度とメモリ利用率に優れた生成効率を実現するフラワーダンスを提案する。
具体的には、FlowerDanceはMeanFlowとPhysical Consistency Constraintsを組み合わせて、少数のサンプリングステップで高品質なモーション生成を可能にする。
さらに、FlowerDanceは、BiMambaベースのバックボーンとChannel-Level Cross-Modal Fusionによるシンプルだが効率的なモデルアーキテクチャを活用し、効率的な非自己回帰的なダンスを生成する。
一方、FlowerDanceはモーション編集をサポートしており、ユーザーは対話的にダンスシーケンスを洗練できる。
AIST++ と FineDance の大規模な実験により、FlowerDance は動きの質と生成効率の両方で最先端の結果が得られることが示された。
コードは受理時にリリースされる。
関連論文リスト
- PAMD: Plausibility-Aware Motion Diffusion Model for Long Dance Generation [51.2555550979386]
Plausibility-Aware Motion Diffusion (PAMD)は、音楽的に整列し、物理的に現実的なダンスを生成するためのフレームワークである。
生成時により効果的なガイダンスを提供するために、プリエント・モーション・ガイダンス(PMG)を取り入れる。
実験により、PAMDは音楽のアライメントを著しく改善し、生成した動きの物理的妥当性を高めることが示された。
論文 参考訳(メタデータ) (2025-05-26T14:44:09Z) - Bidirectional Autoregressive Diffusion Model for Dance Generation [26.449135437337034]
本稿では,双方向自己回帰拡散モデル(BADM)を提案する。
生成したダンスが前方方向と後方方向の両方で調和することを強制するために、双方向エンコーダが構築される。
生成したダンス動作をよりスムーズにするため、局所運動強調のための局所情報デコーダを構築する。
論文 参考訳(メタデータ) (2024-02-06T19:42:18Z) - DiffDance: Cascaded Human Motion Diffusion Model for Dance Generation [89.50310360658791]
本稿では,高分解能長周期ダンス生成のための新しい動き拡散モデルDiffDanceを提案する。
本モデルは、音楽間拡散モデルとシーケンス超解像拡散モデルとから構成される。
DiffDanceは、入力された音楽と効果的に一致したリアルなダンスシーケンスを生成することができることを実証する。
論文 参考訳(メタデータ) (2023-08-05T16:18:57Z) - TM2D: Bimodality Driven 3D Dance Generation via Music-Text Integration [75.37311932218773]
テキストと音楽の両方を同時に組み込んだ3Dダンス運動を生成するための新しいタスクを提案する。
本手法は,テキストと音楽の両方に調和した現実的かつ一貫性のあるダンスの動きを生成できると同時に,2つの単一モーダルと同等の性能を維持することができる。
論文 参考訳(メタデータ) (2023-04-05T12:58:33Z) - Bailando: 3D Dance Generation by Actor-Critic GPT with Choreographic
Memory [92.81383016482813]
そこで我々は3Dキャラクターを1曲の楽曲に追従して踊るための新しい音楽間距離フレームワークBailandoを提案する。
本稿では,音楽に忠実な流麗なダンスにユニットを構成するアクタ批判型生成事前学習変換器(GPT)を紹介する。
提案するフレームワークは,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-24T13:06:43Z) - DanceFormer: Music Conditioned 3D Dance Generation with Parametric
Motion Transformer [23.51701359698245]
本稿では、2段階のプロセス, ie, キーポーズ生成, そしてパラメトリックな動き曲線の予測によってそれを再構成する。
本稿では,経験的アニメーターによって正確にラベル付けされた大規模な音楽条件付き3DダンスデータセットPhantomDanceを提案する。
実験により、提案手法は既存のデータセットで訓練されても、流動的で、演奏的で、音楽にマッチした3Dダンスを生成できることが示されている。
論文 参考訳(メタデータ) (2021-03-18T12:17:38Z) - Learning to Generate Diverse Dance Motions with Transformer [67.43270523386185]
ダンス・モーション・シンセサイザーのための完全なシステムを提案する。
大規模なダンスモーションデータセットはYouTubeビデオから作成される。
新たな2ストリームモーショントランス生成モデルでは、高い柔軟性で動作シーケンスを生成することができる。
論文 参考訳(メタデータ) (2020-08-18T22:29:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。