論文の概要: Not Like Transformers: Drop the Beat Representation for Dance Generation with Mamba-Based Diffusion Model
- arxiv url: http://arxiv.org/abs/2603.08023v1
- Date: Mon, 09 Mar 2026 06:59:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.614448
- Title: Not Like Transformers: Drop the Beat Representation for Dance Generation with Mamba-Based Diffusion Model
- Title(参考訳): 変圧器に似ない:マンバ拡散モデルを用いたダンス生成のためのビート表現のドロップ
- Authors: Sangjune Park, Inhyeok Choi, Donghyeon Soon, Youngwoo Jeon, Kyungdon Joo,
- Abstract要約: 本研究では,マンバに基づく拡散モデルを利用した新しいダンス生成手法であるemphMambaDanceを提案する。
Mambaは、長大かつ自己回帰的なシーケンスを扱うのに適しているが、我々の2段階拡散アーキテクチャに統合され、既製のトランスフォーマーに代わる。
提案手法は,従来の手法と比較して,短いダンスから長いダンスまで連続的に重要な特徴を反映しながら,効果的に可塑性舞踊運動を生成する。
- 参考スコア(独自算出の注目度): 8.542693293312935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dance is a form of human motion characterized by emotional expression and communication, playing a role in various fields such as music, virtual reality, and content creation. Existing methods for dance generation often fail to adequately capture the inherently sequential, rhythmical, and music-synchronized characteristics of dance. In this paper, we propose \emph{MambaDance}, a new dance generation approach that leverages a Mamba-based diffusion model. Mamba, well-suited to handling long and autoregressive sequences, is integrated into our two-stage diffusion architecture, substituting off-the-shelf Transformer. Additionally, considering the critical role of musical beats in dance choreography, we propose a Gaussian-based beat representation to explicitly guide the decoding of dance sequences. Experiments on AIST++ and FineDance datasets for each sequence length show that our proposed method effectively generates plausible dance movements while reflecting essential characteristics, consistently from short to long dances, compared to the previous methods. Additional qualitative results and demo videos are available at \small{https://vision3d-lab.github.io/mambadance}.
- Abstract(参考訳): ダンス(Dance)は、感情的な表現とコミュニケーションを特徴とする人間の動きの一種で、音楽、バーチャルリアリティ、コンテンツ制作など様々な分野での役割を担っている。
既存のダンス生成方法は、ダンスの本質的にシーケンシャル、リズミカル、音楽同期の特徴を適切に捉えることができないことが多い。
本稿では,マンバに基づく拡散モデルを利用した新しいダンス生成手法である 'emph{MambaDance} を提案する。
Mambaは、長大かつ自己回帰的なシーケンスを扱うのに適しているが、我々の2段階拡散アーキテクチャに統合され、既製のトランスフォーマーに代わる。
また、ダンス振付における音楽的ビートの重要性を考慮し、ダンスシーケンスの復号を明示的に導くガウス的ビート表現を提案する。
AIST++ および FineDance データセットを各シーケンス長毎に実験した結果,提案手法は,従来の手法と比較して,短いダンスから長いダンスまで一貫して重要な特徴を反映しながら,効果的に可塑性舞踊運動を生成できることが示されている。
さらなる質的な結果とデモビデオは \small{https://vision3d-lab.github.io/mambadance} で公開されている。
関連論文リスト
- Align Your Rhythm: Generating Highly Aligned Dance Poses with Gating-Enhanced Rhythm-Aware Feature Representation [22.729568599120846]
本研究では、リズム認識機能表現を強化するためにゲーティング機構を活用する新しいフレームワークであるDancebaを提案する。
位相に基づくリズム抽出(PRE)により、音楽相データからリズム情報を正確に抽出する。
TGCA(Temporal-Gated Causal Attention)は、グローバルリズミカルな特徴に焦点を当てる。
上肢と下肢の運動を別々にモデル化する並列マンバ運動モデリング(PMMM)アーキテクチャ。
論文 参考訳(メタデータ) (2025-03-21T17:42:50Z) - Controllable Dance Generation with Style-Guided Motion Diffusion [49.35282418951445]
ダンスは人間の文化において芸術的な形式や表現として重要な役割を担っているが、ダンスの創造は依然として困難な課題である。
ほとんどのダンス生成法は音楽のみに依存しており、音楽スタイルやジャンルといった本質的な特質を考慮することは滅多にない。
本研究では,ダンス生成の多様なタスクに適した拡散型フレームワークであるDGSDP(Flexible Dance Generation with Style Description Prompts)を紹介する。
論文 参考訳(メタデータ) (2024-06-12T04:55:14Z) - Bidirectional Autoregressive Diffusion Model for Dance Generation [26.449135437337034]
本稿では,双方向自己回帰拡散モデル(BADM)を提案する。
生成したダンスが前方方向と後方方向の両方で調和することを強制するために、双方向エンコーダが構築される。
生成したダンス動作をよりスムーズにするため、局所運動強調のための局所情報デコーダを構築する。
論文 参考訳(メタデータ) (2024-02-06T19:42:18Z) - DiffDance: Cascaded Human Motion Diffusion Model for Dance Generation [89.50310360658791]
本稿では,高分解能長周期ダンス生成のための新しい動き拡散モデルDiffDanceを提案する。
本モデルは、音楽間拡散モデルとシーケンス超解像拡散モデルとから構成される。
DiffDanceは、入力された音楽と効果的に一致したリアルなダンスシーケンスを生成することができることを実証する。
論文 参考訳(メタデータ) (2023-08-05T16:18:57Z) - Bailando: 3D Dance Generation by Actor-Critic GPT with Choreographic
Memory [92.81383016482813]
そこで我々は3Dキャラクターを1曲の楽曲に追従して踊るための新しい音楽間距離フレームワークBailandoを提案する。
本稿では,音楽に忠実な流麗なダンスにユニットを構成するアクタ批判型生成事前学習変換器(GPT)を紹介する。
提案するフレームワークは,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-24T13:06:43Z) - Music-to-Dance Generation with Optimal Transport [48.92483627635586]
本稿では,音楽から3Dダンス振付を生成するためのMDOT-Net(Music-to-Dance with Optimal Transport Network)を提案する。
生成したダンス分布とグロモフ=ワッサーシュタイン距離の信頼度を評価するための最適な移動距離を導入し、ダンス分布と入力音楽の対応性を測定する。
論文 参考訳(メタデータ) (2021-12-03T09:37:26Z) - Learning to Generate Diverse Dance Motions with Transformer [67.43270523386185]
ダンス・モーション・シンセサイザーのための完全なシステムを提案する。
大規模なダンスモーションデータセットはYouTubeビデオから作成される。
新たな2ストリームモーショントランス生成モデルでは、高い柔軟性で動作シーケンスを生成することができる。
論文 参考訳(メタデータ) (2020-08-18T22:29:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。