論文の概要: FineDance: A Fine-grained Choreography Dataset for 3D Full Body Dance
Generation
- arxiv url: http://arxiv.org/abs/2212.03741v4
- Date: Wed, 30 Aug 2023 04:18:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 17:52:16.147590
- Title: FineDance: A Fine-grained Choreography Dataset for 3D Full Body Dance
Generation
- Title(参考訳): FineDance:3Dフルボディダンス生成のための微粒なコレオグラフィーデータセット
- Authors: Ronghui Li, Junfan Zhao, Yachao Zhang, Mingyang Su, Zeping Ren, Han
Zhang, Yansong Tang, Xiu Li
- Abstract要約: ファインダンス(FineDance)は、ダンスのジャンルで最大の音楽とダンスのペアデータセットである。
従来手法に存在した単調・不自然な手の動きに対処するため,フルボディダンス生成ネットワークを提案する。
生成したダンスのジャンルマッチングと長期的安定性をさらに向上するため,Genre&Coherent aware Retrieval Moduleを提案する。
- 参考スコア(独自算出の注目度): 33.9261932800456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating full-body and multi-genre dance sequences from given music is a
challenging task, due to the limitations of existing datasets and the inherent
complexity of the fine-grained hand motion and dance genres. To address these
problems, we propose FineDance, which contains 14.6 hours of music-dance paired
data, with fine-grained hand motions, fine-grained genres (22 dance genres),
and accurate posture. To the best of our knowledge, FineDance is the largest
music-dance paired dataset with the most dance genres. Additionally, to address
monotonous and unnatural hand movements existing in previous methods, we
propose a full-body dance generation network, which utilizes the diverse
generation capabilities of the diffusion model to solve monotonous problems,
and use expert nets to solve unreal problems. To further enhance the
genre-matching and long-term stability of generated dances, we propose a
Genre&Coherent aware Retrieval Module. Besides, we propose a novel metric named
Genre Matching Score to evaluate the genre-matching degree between dance and
music. Quantitative and qualitative experiments demonstrate the quality of
FineDance, and the state-of-the-art performance of FineNet. The FineDance
Dataset and more qualitative samples can be found at our website.
- Abstract(参考訳): 既存のデータセットの制限や細かな手の動きやダンスのジャンルに固有の複雑さがあるため、与えられた音楽から全身および多ジャンルのダンスシーケンスを生成することは難しい課題である。
これらの問題に対処するため、細粒度ハンドモーション、きめ細かいジャンル(22のダンスジャンル)、正確な姿勢の14.6時間ペアデータを含むファインダンスを提案する。
われわれの知る限りでは、FineDanceはダンスのジャンルで最大の音楽とダンスのペアリングデータセットだ。
また,従来手法で存在した単調・不自然な手の動きに対処するため,拡散モデルの多彩な生成機能を利用して単調な問題を解決するフルボディダンス生成ネットワークを提案し,エキスパートネットを用いて非現実的な問題を解決する。
生成したダンスのジャンルマッチングと長期的安定性をさらに向上するため,Genre&Coherent aware Retrieval Moduleを提案する。
また,ダンスと音楽のジャンルマッチング度を評価するために,ジャンルマッチングスコアという新しい指標を提案する。
定量的および定性的な実験は、ファインダンスの品質とファインネットの最先端性能を示す。
FineDance Datasetや他の定性的なサンプルは、私たちのWebサイトにある。
関連論文リスト
- Flexible Music-Conditioned Dance Generation with Style Description Prompts [41.04549275897979]
本稿では,ダンス生成の多種多様なタスクに適した拡散型フレームワークであるDGSDP(Flexible Dance Generation with Style Description Prompts)を紹介する。
このフレームワークの中核となるコンポーネントはMusic-Conditioned Style-Aware Diffusion (MCSAD)であり、TransformerベースのネットワークとMusic Style Modulationモジュールで構成される。
提案手法は, 長期的生成, ダンス・イン・ベントワイニング, ダンス・イン・ペイントなど, 様々なタスクにおいて, 音楽と正確に整合したリアルなダンス・シーケンスを生成する。
論文 参考訳(メタデータ) (2024-06-12T04:55:14Z) - Duolando: Follower GPT with Off-Policy Reinforcement Learning for Dance Accompaniment [87.20240797625648]
舞踊伴奏と呼ばれる3次元舞踊生成の分野における新しい課題を紹介する。
これは、リードダンサーの動きと、基礎となる音楽リズムと同期した「フォロワー」と呼ばれるダンスパートナーからの応答的な動きを生成する必要がある。
本稿では,GPTに基づくDuolandoモデルを提案する。このモデルでは,音楽の協調情報,リーダの動作,従者の動きに基づいて,後続のトークン化動作を自動回帰予測する。
論文 参考訳(メタデータ) (2024-03-27T17:57:02Z) - DanceCamera3D: 3D Camera Movement Synthesis with Music and Dance [50.01162760878841]
DCMは、カメラの動きとダンスモーションと音楽オーディオを組み合わせた、新しいマルチモーダルな3Dデータセットである。
このデータセットは、アニメコミュニティからのペアダンスカメラ音楽データの108のダンスシーケンス(3.2時間)を含む。
本研究では,新しいボディアテンション損失と条件分離戦略を組み込んだトランスフォーマーに基づく拡散モデルであるDanceCamera3Dを提案する。
論文 参考訳(メタデータ) (2024-03-20T15:24:57Z) - DiffDance: Cascaded Human Motion Diffusion Model for Dance Generation [89.50310360658791]
本稿では,高分解能長周期ダンス生成のための新しい動き拡散モデルDiffDanceを提案する。
本モデルは、音楽間拡散モデルとシーケンス超解像拡散モデルとから構成される。
DiffDanceは、入力された音楽と効果的に一致したリアルなダンスシーケンスを生成することができることを実証する。
論文 参考訳(メタデータ) (2023-08-05T16:18:57Z) - Music-Driven Group Choreography [10.501572863039852]
$rm AIOZ-GDANCE$は、音楽駆動のグループダンス生成のための新しい大規模データセットである。
集団舞踊運動の生成に単一舞踊生成法を鼻で適用することで,満足のいく結果が得られないことが示唆された。
本稿では,複数のグループコヒーレントな振付を効率よく作成するために,入力音楽シーケンスとダンサーの3D位置のセットを取り入れた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-22T06:26:56Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - Bailando: 3D Dance Generation by Actor-Critic GPT with Choreographic
Memory [92.81383016482813]
そこで我々は3Dキャラクターを1曲の楽曲に追従して踊るための新しい音楽間距離フレームワークBailandoを提案する。
本稿では,音楽に忠実な流麗なダンスにユニットを構成するアクタ批判型生成事前学習変換器(GPT)を紹介する。
提案するフレームワークは,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-24T13:06:43Z) - Music-to-Dance Generation with Optimal Transport [48.92483627635586]
本稿では,音楽から3Dダンス振付を生成するためのMDOT-Net(Music-to-Dance with Optimal Transport Network)を提案する。
生成したダンス分布とグロモフ=ワッサーシュタイン距離の信頼度を評価するための最適な移動距離を導入し、ダンス分布と入力音楽の対応性を測定する。
論文 参考訳(メタデータ) (2021-12-03T09:37:26Z) - Music2Dance: DanceNet for Music-driven Dance Generation [11.73506542921528]
本研究では,音楽のスタイル,リズム,メロディを制御信号とする自己回帰生成モデルDanceNetを提案する。
プロのダンサーによる複数の同期音楽ダンスペアをキャプチャし、高品質な音楽ダンスペアデータセットを構築する。
論文 参考訳(メタデータ) (2020-02-02T17:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。