論文の概要: PirouNet: Creating Intentional Dance with Semi-Supervised Conditional
Recurrent Variational Autoencoders
- arxiv url: http://arxiv.org/abs/2207.12126v1
- Date: Thu, 21 Jul 2022 18:04:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:16:54.179668
- Title: PirouNet: Creating Intentional Dance with Semi-Supervised Conditional
Recurrent Variational Autoencoders
- Title(参考訳): pirounet: semi-supervised conditional recurrent variational autoencoderによる意図的なダンスの作成
- Authors: Mathilde Papillon, Mariel Pettee, Nina Miolane
- Abstract要約: ダンスラベリングWebアプリケーションを用いた半教師付き条件付きリカレント変分自動エンコーダ"PirouNet"を提案する。
提案された半教師付きアプローチのおかげで、PirouNetはデータセットのごく一部だけをラベル付けする必要がある。
我々はPirouNetのダンス生成を質的、定量的な一連の指標を通じて広範囲に評価し、振付家のためのツールとして適用可能であることを検証した。
- 参考スコア(独自算出の注目度): 3.867363075280544
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Using Artificial Intelligence (AI) to create dance choreography with
intention is still at an early stage. Methods that conditionally generate dance
sequences remain limited in their ability to follow choreographer-specific
creative intentions, often relying on external prompts or supervised learning.
In the same vein, fully annotated dance datasets are rare and labor intensive.
To fill this gap and help leverage deep learning as a meaningful tool for
choreographers, we propose "PirouNet", a semi-supervised conditional recurrent
variational autoencoder together with a dance labeling web application.
PirouNet allows dance professionals to annotate data with their own subjective
creative labels and subsequently generate new bouts of choreography based on
their aesthetic criteria. Thanks to the proposed semi-supervised approach,
PirouNet only requires a small portion of the dataset to be labeled, typically
on the order of 1%. We demonstrate PirouNet's capabilities as it generates
original choreography based on the "Laban Time Effort", an established dance
notion describing intention for a movement's time dynamics. We extensively
evaluate PirouNet's dance creations through a series of qualitative and
quantitative metrics, validating its applicability as a tool for
choreographers.
- Abstract(参考訳): 人工知能(AI)を用いてダンス振付を作成することは、まだ初期段階にある。
ダンス・シーケンスを条件付きで生成する手法は、しばしば外部のプロンプトや教師付き学習に依存して、コレオグラフィー固有の創造的意図に従う能力に制限されている。
同じ流れで、完全に注釈付きダンスデータセットはまれで、労働集約的です。
このギャップを埋め、深層学習をコレオグラフィーにとって意味のあるツールとして活用するために、半教師付き条件付きリカレント変分自動エンコーダであるPirouNetとダンスラベリングWebアプリケーションを提案する。
pirounetは、ダンスのプロが自分の主観的なクリエイティブなラベルでデータを注釈付けし、その美的基準に基づいて新しいコレオグラフィーを生成できるようにする。
提案された半教師付きアプローチのおかげで、PirouNetはデータセットのごく一部だけをラベル付けする必要がある。
動きの時間ダイナミクスの意図を記述する確立されたダンス概念である「ラバン・タイム・ワーク」に基づいて独自の振り付けを生成するピルーネットの能力を示す。
我々はPirouNetのダンス生成を定性的かつ定量的に評価し、振付家のためのツールとしての有効性を検証した。
関連論文リスト
- Automatic Dance Video Segmentation for Understanding Choreography [10.053913399613764]
本研究では,ダンスビデオを自動的に各動作に分割する手法を提案する。
トレーニングデータセットを構築するために、AIST Dance Video Databaseでセグメンテーションポイントをアノテートしてビデオをダンスする。
評価の結果,提案手法は高い精度でセグメンテーション点を推定できることがわかった。
論文 参考訳(メタデータ) (2024-05-30T06:19:01Z) - Duolando: Follower GPT with Off-Policy Reinforcement Learning for Dance Accompaniment [87.20240797625648]
舞踊伴奏と呼ばれる3次元舞踊生成の分野における新しい課題を紹介する。
これは、リードダンサーの動きと、基礎となる音楽リズムと同期した「フォロワー」と呼ばれるダンスパートナーからの応答的な動きを生成する必要がある。
本稿では,GPTに基づくDuolandoモデルを提案する。このモデルでは,音楽の協調情報,リーダの動作,従者の動きに基づいて,後続のトークン化動作を自動回帰予測する。
論文 参考訳(メタデータ) (2024-03-27T17:57:02Z) - FineDance: A Fine-grained Choreography Dataset for 3D Full Body Dance
Generation [33.9261932800456]
ファインダンス(FineDance)は、ダンスのジャンルで最大の音楽とダンスのペアデータセットである。
従来手法に存在した単調・不自然な手の動きに対処するため,フルボディダンス生成ネットワークを提案する。
生成したダンスのジャンルマッチングと長期的安定性をさらに向上するため,Genre&Coherent aware Retrieval Moduleを提案する。
論文 参考訳(メタデータ) (2022-12-07T16:10:08Z) - Intentional Choreography with Semi-Supervised Recurrent VAEs [3.867363075280544]
半教師付きリカレント変分オートエンコーダのPirouNetについて述べる。
我々は,PirouNetが振付師のスタイルで,条件付きでダンスシーケンスを生成することを示す。
論文 参考訳(メタデータ) (2022-09-20T21:38:51Z) - BRACE: The Breakdancing Competition Dataset for Dance Motion Synthesis [123.73677487809418]
ダンス・モーション・シンセサイザーにおける一般的な仮定に挑戦する新しいデータセットを提案する。
我々は、アクロバティックな動きと絡み合った姿勢を特徴とするブレイクダンスに焦点を当てている。
BRACEデータセットは、3時間30分以上の濃密な注釈付きポーズを含む。
論文 参考訳(メタデータ) (2022-07-20T18:03:54Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - Bailando: 3D Dance Generation by Actor-Critic GPT with Choreographic
Memory [92.81383016482813]
そこで我々は3Dキャラクターを1曲の楽曲に追従して踊るための新しい音楽間距離フレームワークBailandoを提案する。
本稿では,音楽に忠実な流麗なダンスにユニットを構成するアクタ批判型生成事前学習変換器(GPT)を紹介する。
提案するフレームワークは,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-24T13:06:43Z) - Music-to-Dance Generation with Optimal Transport [48.92483627635586]
本稿では,音楽から3Dダンス振付を生成するためのMDOT-Net(Music-to-Dance with Optimal Transport Network)を提案する。
生成したダンス分布とグロモフ=ワッサーシュタイン距離の信頼度を評価するための最適な移動距離を導入し、ダンス分布と入力音楽の対応性を測定する。
論文 参考訳(メタデータ) (2021-12-03T09:37:26Z) - Feel The Music: Automatically Generating A Dance For An Input Song [58.653867648572]
本稿では,機械が任意の入力音楽に対してダンスを生成するための一般的な計算手法を提案する。
ダンスの構造は音楽の構造と一致すべきである。
論文 参考訳(メタデータ) (2020-06-21T20:29:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。