論文の概要: MDD: A Dataset for Text-and-Music Conditioned Duet Dance Generation
- arxiv url: http://arxiv.org/abs/2508.16911v1
- Date: Sat, 23 Aug 2025 05:56:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.248027
- Title: MDD: A Dataset for Text-and-Music Conditioned Duet Dance Generation
- Title(参考訳): MDD: テキスト・アンド・ミュージック・コンディショニング・デュエット・ダンス生成のためのデータセット
- Authors: Prerit Gupta, Jason Alexander Fotso-Puepi, Zhengyuan Li, Jay Mehta, Aniket Bera,
- Abstract要約: テキスト制御および音楽条件付き3Dデュエットダンスモーション生成用に設計された多モードベンチマークデータセットであるMultimodal DuetDance(MDD)を紹介する。
我々のデータセットは、プロのダンサーが行う620分間の高品質なモーションキャプチャーデータからなり、音楽と同期し、10K以上のきめ細かい自然言語記述を詳述する。
アノテーションは、空間的関係、身体の動き、リズムを詳述し、人間の動き、音楽、そしてデュエットダンス生成のためのテキストをシームレスに統合する最初のデータセットとなる。
- 参考スコア(独自算出の注目度): 16.657210427678198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Multimodal DuetDance (MDD), a diverse multimodal benchmark dataset designed for text-controlled and music-conditioned 3D duet dance motion generation. Our dataset comprises 620 minutes of high-quality motion capture data performed by professional dancers, synchronized with music, and detailed with over 10K fine-grained natural language descriptions. The annotations capture a rich movement vocabulary, detailing spatial relationships, body movements, and rhythm, making MDD the first dataset to seamlessly integrate human motions, music, and text for duet dance generation. We introduce two novel tasks supported by our dataset: (1) Text-to-Duet, where given music and a textual prompt, both the leader and follower dance motion are generated (2) Text-to-Dance Accompaniment, where given music, textual prompt, and the leader's motion, the follower's motion is generated in a cohesive, text-aligned manner. We include baseline evaluations on both tasks to support future research.
- Abstract(参考訳): テキスト制御および音楽条件付き3Dデュエットダンスモーション生成用に設計された多モードベンチマークデータセットであるMultimodal DuetDance(MDD)を紹介する。
我々のデータセットは、プロのダンサーが行う620分間の高品質なモーションキャプチャーデータからなり、音楽と同期し、10K以上のきめ細かい自然言語記述を詳述する。
アノテーションは、空間的関係、身体の動き、リズムを詳述し、人間の動き、音楽、そしてデュエットダンス生成のためのテキストをシームレスに統合する最初のデータセットとなる。
本研究では,(1) 与えられた音楽とテキスト・プロンプトを生成するテキスト・トゥ・デュエット(Text-to-Duet),(2) 与えられた音楽,テキスト・プロンプト,およびリーダの動作を協調的に生成するテキスト・トゥ・ダンス・モーション(Text-to-Dance Acompaniment)という2つの新しいタスクを紹介した。
今後の研究を支援するため,両課題のベースライン評価を含める。
関連論文リスト
- DanceChat: Large Language Model-Guided Music-to-Dance Generation [8.455652926559427]
音楽からダンスへの生成は、音楽入力に基づく人間のダンスの動きを合成することを目的としている。
本研究では,Large Language Model (LLM) を用いた音楽間距離生成手法であるDanceChatを紹介する。
論文 参考訳(メタデータ) (2025-06-12T11:03:47Z) - Duolando: Follower GPT with Off-Policy Reinforcement Learning for Dance Accompaniment [87.20240797625648]
舞踊伴奏と呼ばれる3次元舞踊生成の分野における新しい課題を紹介する。
これは、リードダンサーの動きと、基礎となる音楽リズムと同期した「フォロワー」と呼ばれるダンスパートナーからの応答的な動きを生成する必要がある。
本稿では,GPTに基づくDuolandoモデルを提案する。このモデルでは,音楽の協調情報,リーダの動作,従者の動きに基づいて,後続のトークン化動作を自動回帰予測する。
論文 参考訳(メタデータ) (2024-03-27T17:57:02Z) - BOTH2Hands: Inferring 3D Hands from Both Text Prompts and Body Dynamics [50.88842027976421]
両手動作生成のための新しいマルチモーダルデータセットBOTH57Mを提案する。
私たちのデータセットには、人体と手の動きの正確な追跡が含まれています。
また,新しいタスクのための強力なベースライン手法であるBOTH2Handsも提供する。
論文 参考訳(メタデータ) (2023-12-13T07:30:19Z) - Music- and Lyrics-driven Dance Synthesis [25.474741654098114]
音楽と歌詞を用いた新しい3Dダンス・モーション・データセットであるJustLMDを紹介した。
私たちの知る限りでは、ダンスの動き、音楽、歌詞を含む三重奏情報を備えた最初のデータセットである。
提案したJustLMDデータセットは、1867年の連続した3Dダンスの4.6時間、音楽トラックとそれに対応する英語の歌詞を伴って構成されている。
論文 参考訳(メタデータ) (2023-09-30T18:27:14Z) - TM2D: Bimodality Driven 3D Dance Generation via Music-Text Integration [75.37311932218773]
テキストと音楽の両方を同時に組み込んだ3Dダンス運動を生成するための新しいタスクを提案する。
本手法は,テキストと音楽の両方に調和した現実的かつ一貫性のあるダンスの動きを生成できると同時に,2つの単一モーダルと同等の性能を維持することができる。
論文 参考訳(メタデータ) (2023-04-05T12:58:33Z) - BRACE: The Breakdancing Competition Dataset for Dance Motion Synthesis [123.73677487809418]
ダンス・モーション・シンセサイザーにおける一般的な仮定に挑戦する新しいデータセットを提案する。
我々は、アクロバティックな動きと絡み合った姿勢を特徴とするブレイクダンスに焦点を当てている。
BRACEデータセットは、3時間30分以上の濃密な注釈付きポーズを含む。
論文 参考訳(メタデータ) (2022-07-20T18:03:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。