論文の概要: EDGE: Editable Dance Generation From Music
- arxiv url: http://arxiv.org/abs/2211.10658v1
- Date: Sat, 19 Nov 2022 10:41:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 23:24:32.189970
- Title: EDGE: Editable Dance Generation From Music
- Title(参考訳): EDGE:音楽から編集可能なダンスジェネレーション
- Authors: Jonathan Tseng, Rodrigo Castellon, C. Karen Liu
- Abstract要約: 編集可能ダンスジェネレーション(EDGE:Editable Dance GEneration)は、編集可能ダンス生成のための最先端の手法である。
入力された音楽に忠実なまま、リアルで物理的に称賛できるダンスを作ることができる。
- 参考スコア(独自算出の注目度): 15.658163494375533
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dance is an important human art form, but creating new dances can be
difficult and time-consuming. In this work, we introduce Editable Dance
GEneration (EDGE), a state-of-the-art method for editable dance generation that
is capable of creating realistic, physically-plausible dances while remaining
faithful to the input music. EDGE uses a transformer-based diffusion model
paired with Jukebox, a strong music feature extractor, and confers powerful
editing capabilities well-suited to dance, including joint-wise conditioning,
and in-betweening. We introduce a new metric for physical plausibility, and
evaluate dance quality generated by our method extensively through (1) multiple
quantitative metrics on physical plausibility, beat alignment, and diversity
benchmarks, and more importantly, (2) a large-scale user study, demonstrating a
significant improvement over previous state-of-the-art methods. Qualitative
samples from our model can be found at our website.
- Abstract(参考訳): ダンスは重要な芸術形態であるが、新しいダンスを作るのは難しく時間がかかる。
本研究では,編集可能ダンスジェネレーション(EDGE)について紹介する。編集可能ダンスジェネレーション(EDGE)は,入力音楽に忠実なまま,リアルで物理的に表現可能なダンスを生成することができる編集可能ダンスジェネレーションである。
EDGEは、強力な音楽特徴抽出器であるJukeboxと組み合わせたトランスフォーマーベースの拡散モデルを使用し、ダンスに適した強力な編集機能、例えばジョイントワイドコンディショニングやイン・バイ・ビートニングを提供する。
身体的可視性に関する新しい指標を導入し,(1) 身体的可視性, ビートアライメント, 多様性ベンチマークに関する複数の定量的指標を通じて, 提案手法が生み出すダンスの質を評価する。
私たちのモデルの定性的なサンプルは、私たちのWebサイトにある。
関連論文リスト
- Lodge++: High-quality and Long Dance Generation with Vivid Choreography Patterns [48.54956784928394]
Lodge++は、高品質で、超長い、鮮やかなダンスを生成するためのコレオグラフィーフレームワークである。
計算効率の課題に対処するため、Lodge++では、粗いダンスから罰金までのダンスを生成するための2段階の戦略を採用している。
Lodge++は,様々なダンスジャンルに適した超長いダンスを高速に生成できることを示す広範な実験によって検証されている。
論文 参考訳(メタデータ) (2024-10-27T09:32:35Z) - Flexible Music-Conditioned Dance Generation with Style Description Prompts [41.04549275897979]
本稿では,ダンス生成の多種多様なタスクに適した拡散型フレームワークであるDGSDP(Flexible Dance Generation with Style Description Prompts)を紹介する。
このフレームワークの中核となるコンポーネントはMusic-Conditioned Style-Aware Diffusion (MCSAD)であり、TransformerベースのネットワークとMusic Style Modulationモジュールで構成される。
提案手法は, 長期的生成, ダンス・イン・ベントワイニング, ダンス・イン・ペイントなど, 様々なタスクにおいて, 音楽と正確に整合したリアルなダンス・シーケンスを生成する。
論文 参考訳(メタデータ) (2024-06-12T04:55:14Z) - Duolando: Follower GPT with Off-Policy Reinforcement Learning for Dance Accompaniment [87.20240797625648]
舞踊伴奏と呼ばれる3次元舞踊生成の分野における新しい課題を紹介する。
これは、リードダンサーの動きと、基礎となる音楽リズムと同期した「フォロワー」と呼ばれるダンスパートナーからの応答的な動きを生成する必要がある。
本稿では,GPTに基づくDuolandoモデルを提案する。このモデルでは,音楽の協調情報,リーダの動作,従者の動きに基づいて,後続のトークン化動作を自動回帰予測する。
論文 参考訳(メタデータ) (2024-03-27T17:57:02Z) - DiffDance: Cascaded Human Motion Diffusion Model for Dance Generation [89.50310360658791]
本稿では,高分解能長周期ダンス生成のための新しい動き拡散モデルDiffDanceを提案する。
本モデルは、音楽間拡散モデルとシーケンス超解像拡散モデルとから構成される。
DiffDanceは、入力された音楽と効果的に一致したリアルなダンスシーケンスを生成することができることを実証する。
論文 参考訳(メタデータ) (2023-08-05T16:18:57Z) - FineDance: A Fine-grained Choreography Dataset for 3D Full Body Dance
Generation [33.9261932800456]
ファインダンス(FineDance)は、ダンスのジャンルで最大の音楽とダンスのペアデータセットである。
従来手法に存在した単調・不自然な手の動きに対処するため,フルボディダンス生成ネットワークを提案する。
生成したダンスのジャンルマッチングと長期的安定性をさらに向上するため,Genre&Coherent aware Retrieval Moduleを提案する。
論文 参考訳(メタデータ) (2022-12-07T16:10:08Z) - Bailando: 3D Dance Generation by Actor-Critic GPT with Choreographic
Memory [92.81383016482813]
そこで我々は3Dキャラクターを1曲の楽曲に追従して踊るための新しい音楽間距離フレームワークBailandoを提案する。
本稿では,音楽に忠実な流麗なダンスにユニットを構成するアクタ批判型生成事前学習変換器(GPT)を紹介する。
提案するフレームワークは,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-24T13:06:43Z) - Music-to-Dance Generation with Optimal Transport [48.92483627635586]
本稿では,音楽から3Dダンス振付を生成するためのMDOT-Net(Music-to-Dance with Optimal Transport Network)を提案する。
生成したダンス分布とグロモフ=ワッサーシュタイン距離の信頼度を評価するための最適な移動距離を導入し、ダンス分布と入力音楽の対応性を測定する。
論文 参考訳(メタデータ) (2021-12-03T09:37:26Z) - Learning to Generate Diverse Dance Motions with Transformer [67.43270523386185]
ダンス・モーション・シンセサイザーのための完全なシステムを提案する。
大規模なダンスモーションデータセットはYouTubeビデオから作成される。
新たな2ストリームモーショントランス生成モデルでは、高い柔軟性で動作シーケンスを生成することができる。
論文 参考訳(メタデータ) (2020-08-18T22:29:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。