論文の概要: Feel The Music: Automatically Generating A Dance For An Input Song
- arxiv url: http://arxiv.org/abs/2006.11905v2
- Date: Tue, 23 Jun 2020 20:11:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 12:33:38.774863
- Title: Feel The Music: Automatically Generating A Dance For An Input Song
- Title(参考訳): 音楽を感じる: 入力曲のダンスを自動的に生成する
- Authors: Purva Tendulkar, Abhishek Das, Aniruddha Kembhavi, Devi Parikh
- Abstract要約: 本稿では,機械が任意の入力音楽に対してダンスを生成するための一般的な計算手法を提案する。
ダンスの構造は音楽の構造と一致すべきである。
- 参考スコア(独自算出の注目度): 58.653867648572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a general computational approach that enables a machine to
generate a dance for any input music. We encode intuitive, flexible heuristics
for what a 'good' dance is: the structure of the dance should align with the
structure of the music. This flexibility allows the agent to discover creative
dances. Human studies show that participants find our dances to be more
creative and inspiring compared to meaningful baselines. We also evaluate how
perception of creativity changes based on different presentations of the dance.
Our code is available at https://github.com/purvaten/feel-the-music.
- Abstract(参考訳): 本稿では,機械が任意の入力音楽に対してダンスを生成するための一般的な計算手法を提案する。
我々は、直感的で柔軟なヒューリスティックスを「良い」ダンスとは何か、つまり、ダンスの構造は音楽の構造に合致するべきであることをエンコードする。
この柔軟性により、エージェントは創造的なダンスを発見できる。
人間の研究によると、参加者はダンスが意味のあるベースラインよりも創造的で刺激的だと考えている。
また,踊りの異なる表現に基づいて,創造性の知覚がどう変化するかを評価する。
私たちのコードはhttps://github.com/purvaten/feel-the-musicで入手できます。
関連論文リスト
- Lodge++: High-quality and Long Dance Generation with Vivid Choreography Patterns [48.54956784928394]
Lodge++は、高品質で、超長い、鮮やかなダンスを生成するためのコレオグラフィーフレームワークである。
計算効率の課題に対処するため、Lodge++では、粗いダンスから罰金までのダンスを生成するための2段階の戦略を採用している。
Lodge++は,様々なダンスジャンルに適した超長いダンスを高速に生成できることを示す広範な実験によって検証されている。
論文 参考訳(メタデータ) (2024-10-27T09:32:35Z) - Flexible Music-Conditioned Dance Generation with Style Description Prompts [41.04549275897979]
本稿では,ダンス生成の多種多様なタスクに適した拡散型フレームワークであるDGSDP(Flexible Dance Generation with Style Description Prompts)を紹介する。
このフレームワークの中核となるコンポーネントはMusic-Conditioned Style-Aware Diffusion (MCSAD)であり、TransformerベースのネットワークとMusic Style Modulationモジュールで構成される。
提案手法は, 長期的生成, ダンス・イン・ベントワイニング, ダンス・イン・ペイントなど, 様々なタスクにおいて, 音楽と正確に整合したリアルなダンス・シーケンスを生成する。
論文 参考訳(メタデータ) (2024-06-12T04:55:14Z) - May the Dance be with You: Dance Generation Framework for Non-Humanoids [6.029154142020362]
人間の映像からダンスを学ぶための非ヒューマノイドエージェントのための枠組みを提案する。
1)光学的フローと音楽の関係を知覚する報酬モデルを訓練する。
実験結果から、生成したダンスの動きが音楽のビートと適切に一致できることが判明した。
論文 参考訳(メタデータ) (2024-05-30T06:43:55Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - Bailando: 3D Dance Generation by Actor-Critic GPT with Choreographic
Memory [92.81383016482813]
そこで我々は3Dキャラクターを1曲の楽曲に追従して踊るための新しい音楽間距離フレームワークBailandoを提案する。
本稿では,音楽に忠実な流麗なダンスにユニットを構成するアクタ批判型生成事前学習変換器(GPT)を紹介する。
提案するフレームワークは,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-24T13:06:43Z) - Music-to-Dance Generation with Optimal Transport [48.92483627635586]
本稿では,音楽から3Dダンス振付を生成するためのMDOT-Net(Music-to-Dance with Optimal Transport Network)を提案する。
生成したダンス分布とグロモフ=ワッサーシュタイン距離の信頼度を評価するための最適な移動距離を導入し、ダンス分布と入力音楽の対応性を測定する。
論文 参考訳(メタデータ) (2021-12-03T09:37:26Z) - DanceIt: Music-inspired Dancing Video Synthesis [38.87762996956861]
本稿では,コンピュータビジョンシステム内での人間関係のこのような能力の再現を提案する。
提案システムは3つのモジュールから構成される。
生成されたダンスビデオは、音楽の内容とリズムにマッチします。
論文 参考訳(メタデータ) (2020-09-17T02:29:13Z) - Learning to Generate Diverse Dance Motions with Transformer [67.43270523386185]
ダンス・モーション・シンセサイザーのための完全なシステムを提案する。
大規模なダンスモーションデータセットはYouTubeビデオから作成される。
新たな2ストリームモーショントランス生成モデルでは、高い柔軟性で動作シーケンスを生成することができる。
論文 参考訳(メタデータ) (2020-08-18T22:29:40Z) - Music2Dance: DanceNet for Music-driven Dance Generation [11.73506542921528]
本研究では,音楽のスタイル,リズム,メロディを制御信号とする自己回帰生成モデルDanceNetを提案する。
プロのダンサーによる複数の同期音楽ダンスペアをキャプチャし、高品質な音楽ダンスペアデータセットを構築する。
論文 参考訳(メタデータ) (2020-02-02T17:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。