論文の概要: MDD: A Dataset for Text-and-Music Conditioned Duet Dance Generation
- arxiv url: http://arxiv.org/abs/2508.16911v1
- Date: Sat, 23 Aug 2025 05:56:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.248027
- Title: MDD: A Dataset for Text-and-Music Conditioned Duet Dance Generation
- Title(参考訳): MDD: テキスト・アンド・ミュージック・コンディショニング・デュエット・ダンス生成のためのデータセット
- Authors: Prerit Gupta, Jason Alexander Fotso-Puepi, Zhengyuan Li, Jay Mehta, Aniket Bera,
- Abstract要約: テキスト制御および音楽条件付き3Dデュエットダンスモーション生成用に設計された多モードベンチマークデータセットであるMultimodal DuetDance(MDD)を紹介する。
我々のデータセットは、プロのダンサーが行う620分間の高品質なモーションキャプチャーデータからなり、音楽と同期し、10K以上のきめ細かい自然言語記述を詳述する。
アノテーションは、空間的関係、身体の動き、リズムを詳述し、人間の動き、音楽、そしてデュエットダンス生成のためのテキストをシームレスに統合する最初のデータセットとなる。
- 参考スコア(独自算出の注目度): 16.657210427678198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Multimodal DuetDance (MDD), a diverse multimodal benchmark dataset designed for text-controlled and music-conditioned 3D duet dance motion generation. Our dataset comprises 620 minutes of high-quality motion capture data performed by professional dancers, synchronized with music, and detailed with over 10K fine-grained natural language descriptions. The annotations capture a rich movement vocabulary, detailing spatial relationships, body movements, and rhythm, making MDD the first dataset to seamlessly integrate human motions, music, and text for duet dance generation. We introduce two novel tasks supported by our dataset: (1) Text-to-Duet, where given music and a textual prompt, both the leader and follower dance motion are generated (2) Text-to-Dance Accompaniment, where given music, textual prompt, and the leader's motion, the follower's motion is generated in a cohesive, text-aligned manner. We include baseline evaluations on both tasks to support future research.
- Abstract(参考訳): テキスト制御および音楽条件付き3Dデュエットダンスモーション生成用に設計された多モードベンチマークデータセットであるMultimodal DuetDance(MDD)を紹介する。
我々のデータセットは、プロのダンサーが行う620分間の高品質なモーションキャプチャーデータからなり、音楽と同期し、10K以上のきめ細かい自然言語記述を詳述する。
アノテーションは、空間的関係、身体の動き、リズムを詳述し、人間の動き、音楽、そしてデュエットダンス生成のためのテキストをシームレスに統合する最初のデータセットとなる。
本研究では,(1) 与えられた音楽とテキスト・プロンプトを生成するテキスト・トゥ・デュエット(Text-to-Duet),(2) 与えられた音楽,テキスト・プロンプト,およびリーダの動作を協調的に生成するテキスト・トゥ・ダンス・モーション(Text-to-Dance Acompaniment)という2つの新しいタスクを紹介した。
今後の研究を支援するため,両課題のベースライン評価を含める。
関連論文リスト
- DuetGen: Music Driven Two-Person Dance Generation via Hierarchical Masked Modeling [70.79846001735547]
音楽から対話的な2人舞踊を生成するためのフレームワークであるDuetGenを提案する。
近年の運動合成の進歩に触発されて,我々は2段階の解法を提案する。
我々は、両方のダンサーの動きを統合された全体として表現し、必要な動きトークンを学習する。
論文 参考訳(メタデータ) (2025-06-23T14:22:50Z) - DanceChat: Large Language Model-Guided Music-to-Dance Generation [8.455652926559427]
音楽からダンスへの生成は、音楽入力に基づく人間のダンスの動きを合成することを目的としている。
本研究では,Large Language Model (LLM) を用いた音楽間距離生成手法であるDanceChatを紹介する。
論文 参考訳(メタデータ) (2025-06-12T11:03:47Z) - GCDance: Genre-Controlled Music-Driven 3D Full Body Dance Generation [30.028340528694432]
GCDanceは、ジャンル固有の3Dフルボディダンス生成のためのフレームワークで、音楽と記述テキストに条件付けされている。
我々は、入力プロンプト、明示的なジャンルラベル、自由形式の記述文をジャンル固有の制御信号にマッピングするテキストベースの制御機構を開発する。
テキストジャンル情報を抽出し、高品質な生成結果を維持することの目的をバランスさせるため、我々は新しいマルチタスク最適化戦略を提案する。
論文 参考訳(メタデータ) (2025-02-25T15:53:18Z) - Controllable Dance Generation with Style-Guided Motion Diffusion [49.35282418951445]
ダンスは人間の文化において芸術的な形式や表現として重要な役割を担っているが、ダンスの創造は依然として困難な課題である。
ほとんどのダンス生成法は音楽のみに依存しており、音楽スタイルやジャンルといった本質的な特質を考慮することは滅多にない。
本研究では,ダンス生成の多様なタスクに適した拡散型フレームワークであるDGSDP(Flexible Dance Generation with Style Description Prompts)を紹介する。
論文 参考訳(メタデータ) (2024-06-12T04:55:14Z) - Duolando: Follower GPT with Off-Policy Reinforcement Learning for Dance Accompaniment [87.20240797625648]
舞踊伴奏と呼ばれる3次元舞踊生成の分野における新しい課題を紹介する。
これは、リードダンサーの動きと、基礎となる音楽リズムと同期した「フォロワー」と呼ばれるダンスパートナーからの応答的な動きを生成する必要がある。
本稿では,GPTに基づくDuolandoモデルを提案する。このモデルでは,音楽の協調情報,リーダの動作,従者の動きに基づいて,後続のトークン化動作を自動回帰予測する。
論文 参考訳(メタデータ) (2024-03-27T17:57:02Z) - LM2D: Lyrics- and Music-Driven Dance Synthesis [28.884929875333846]
LM2Dは、音楽と歌詞の両方で、ひとつの拡散生成ステップでダンスコンディションを作成するように設計されている。
ポーズ推定技術を用いて,音楽と歌詞の両方を包含する最初の3次元ダンスモーションデータセットを提案する。
その結果、LM2Dは歌詞と音楽の両方にマッチするリアルで多様なダンスを制作できることを示した。
論文 参考訳(メタデータ) (2024-03-14T13:59:04Z) - BOTH2Hands: Inferring 3D Hands from Both Text Prompts and Body Dynamics [50.88842027976421]
両手動作生成のための新しいマルチモーダルデータセットBOTH57Mを提案する。
私たちのデータセットには、人体と手の動きの正確な追跡が含まれています。
また,新しいタスクのための強力なベースライン手法であるBOTH2Handsも提供する。
論文 参考訳(メタデータ) (2023-12-13T07:30:19Z) - Music- and Lyrics-driven Dance Synthesis [25.474741654098114]
音楽と歌詞を用いた新しい3Dダンス・モーション・データセットであるJustLMDを紹介した。
私たちの知る限りでは、ダンスの動き、音楽、歌詞を含む三重奏情報を備えた最初のデータセットである。
提案したJustLMDデータセットは、1867年の連続した3Dダンスの4.6時間、音楽トラックとそれに対応する英語の歌詞を伴って構成されている。
論文 参考訳(メタデータ) (2023-09-30T18:27:14Z) - TM2D: Bimodality Driven 3D Dance Generation via Music-Text Integration [75.37311932218773]
テキストと音楽の両方を同時に組み込んだ3Dダンス運動を生成するための新しいタスクを提案する。
本手法は,テキストと音楽の両方に調和した現実的かつ一貫性のあるダンスの動きを生成できると同時に,2つの単一モーダルと同等の性能を維持することができる。
論文 参考訳(メタデータ) (2023-04-05T12:58:33Z) - BRACE: The Breakdancing Competition Dataset for Dance Motion Synthesis [123.73677487809418]
ダンス・モーション・シンセサイザーにおける一般的な仮定に挑戦する新しいデータセットを提案する。
我々は、アクロバティックな動きと絡み合った姿勢を特徴とするブレイクダンスに焦点を当てている。
BRACEデータセットは、3時間30分以上の濃密な注釈付きポーズを含む。
論文 参考訳(メタデータ) (2022-07-20T18:03:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。