論文の概要: Bharatanatyam Dance Transcription using Multimedia Ontology and Machine
Learning
- arxiv url: http://arxiv.org/abs/2004.11994v1
- Date: Fri, 24 Apr 2020 21:22:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 04:19:00.225618
- Title: Bharatanatyam Dance Transcription using Multimedia Ontology and Machine
Learning
- Title(参考訳): マルチメディアオントロジーと機械学習を用いたBharatanatyam Dance Transcription
- Authors: Tanwi Mallick and Patha Pratim Das and Arun Kumar Majumdar
- Abstract要約: ダンスパフォーマンスのパース可能な表現を生成するシステムを開発した。
このシステムは、無形遺産の保存、アノテートパフォーマンスの改善、ダンスパフォーマンスの合成に役立ちます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Indian Classical Dance is an over 5000 years' old multi-modal language for
expressing emotions. Preservation of dance through multimedia technology is a
challenging task. In this paper, we develop a system to generate a parseable
representation of a dance performance. The system will help to preserve
intangible heritage, annotate performances for better tutoring, and synthesize
dance performances. We first attempt to capture the concepts of the basic steps
of an Indian Classical Dance form, named Bharatanatyam Adavus, in an
ontological model. Next, we build an event-based low-level model that relates
the ontology of Adavus to the ontology of multi-modal data streams (RGB-D of
Kinect in this case) for a computationally realizable framework. Finally, the
ontology is used for transcription into Labanotation. We also present a
transcription tool for encoding the performances of Bharatanatyam Adavus to
Labanotation and test it on our recorded data set. Our primary aim is to
document the complex movements of dance in terms of Labanotation using the
ontology.
- Abstract(参考訳): インド古典舞踊(indian classical dance)は、5000年以上前の、感情を表現するためのマルチモーダル言語である。
マルチメディア技術によるダンスの保存は難しい課題である。
本稿では,ダンス演奏を解析可能な表現として生成するシステムを開発した。
このシステムは、無形遺産の保存、アノテートパフォーマンスの改善、ダンスパフォーマンスの合成に役立ちます。
私たちはまず、インド古典舞踊の基本的なステップである「Bharatanatyam Adavus」の概念を、オントロジモデルで捉えようと試みた。
次に,adavusのオントロジーとマルチモーダルデータストリーム(この場合はkinectのrgb-d)のオントロジーを関連付けた,計算可能なフレームワークのためのイベントベースの低レベルモデルを構築する。
最後に、オントロジーはラバノテーションへの転写に使用される。
また, bharatanatyam adavusのパフォーマンスをラバノテーションにエンコードし, 記録したデータセットでテストするための転写ツールを提案する。
我々の主な目的は、オントロジーを用いたララノテーションにおけるダンスの複雑な動きの文書化である。
関連論文リスト
- LM2D: Lyrics- and Music-Driven Dance Synthesis [28.884929875333846]
LM2Dは、音楽と歌詞の両方で、ひとつの拡散生成ステップでダンスコンディションを作成するように設計されている。
ポーズ推定技術を用いて,音楽と歌詞の両方を包含する最初の3次元ダンスモーションデータセットを提案する。
その結果、LM2Dは歌詞と音楽の両方にマッチするリアルで多様なダンスを制作できることを示した。
論文 参考訳(メタデータ) (2024-03-14T13:59:04Z) - Dance Generation by Sound Symbolic Words [5.004501184476518]
本研究ではオノマトペを入力としてダンスの動きを生成する新しい手法を提案する。
テキストや音楽とは異なり、オノマトペは抽象的な言葉表現を通じてリズムと意味を伝達する。
ユーザ調査から収集した40個のオノマトペ・ダンス・モーションペアのデータセットを新たに提示する。
論文 参考訳(メタデータ) (2023-06-06T13:00:47Z) - FineDance: A Fine-grained Choreography Dataset for 3D Full Body Dance
Generation [33.9261932800456]
ファインダンス(FineDance)は、ダンスのジャンルで最大の音楽とダンスのペアデータセットである。
従来手法に存在した単調・不自然な手の動きに対処するため,フルボディダンス生成ネットワークを提案する。
生成したダンスのジャンルマッチングと長期的安定性をさらに向上するため,Genre&Coherent aware Retrieval Moduleを提案する。
論文 参考訳(メタデータ) (2022-12-07T16:10:08Z) - BRACE: The Breakdancing Competition Dataset for Dance Motion Synthesis [123.73677487809418]
ダンス・モーション・シンセサイザーにおける一般的な仮定に挑戦する新しいデータセットを提案する。
我々は、アクロバティックな動きと絡み合った姿勢を特徴とするブレイクダンスに焦点を当てている。
BRACEデータセットは、3時間30分以上の濃密な注釈付きポーズを含む。
論文 参考訳(メタデータ) (2022-07-20T18:03:54Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - Bailando: 3D Dance Generation by Actor-Critic GPT with Choreographic
Memory [92.81383016482813]
そこで我々は3Dキャラクターを1曲の楽曲に追従して踊るための新しい音楽間距離フレームワークBailandoを提案する。
本稿では,音楽に忠実な流麗なダンスにユニットを構成するアクタ批判型生成事前学習変換器(GPT)を紹介する。
提案するフレームワークは,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-24T13:06:43Z) - Music-to-Dance Generation with Optimal Transport [48.92483627635586]
本稿では,音楽から3Dダンス振付を生成するためのMDOT-Net(Music-to-Dance with Optimal Transport Network)を提案する。
生成したダンス分布とグロモフ=ワッサーシュタイン距離の信頼度を評価するための最適な移動距離を導入し、ダンス分布と入力音楽の対応性を測定する。
論文 参考訳(メタデータ) (2021-12-03T09:37:26Z) - Learning to Generate Diverse Dance Motions with Transformer [67.43270523386185]
ダンス・モーション・シンセサイザーのための完全なシステムを提案する。
大規模なダンスモーションデータセットはYouTubeビデオから作成される。
新たな2ストリームモーショントランス生成モデルでは、高い柔軟性で動作シーケンスを生成することができる。
論文 参考訳(メタデータ) (2020-08-18T22:29:40Z) - Dance Revolution: Long-Term Dance Generation with Music via Curriculum
Learning [55.854205371307884]
音楽条件付きダンス生成をシーケンス・ツー・シーケンスの学習問題として定式化する。
本稿では,長動き列生成における自己回帰モデルの誤り蓄積を軽減するための新しいカリキュラム学習戦略を提案する。
提案手法は,自動計測と人的評価において,既存の最先端技術よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-06-11T00:08:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。