論文の概要: Emotion Recognition in Contemporary Dance Performances Using Laban Movement Analysis
- arxiv url: http://arxiv.org/abs/2504.21154v1
- Date: Tue, 29 Apr 2025 20:17:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 23:28:49.996679
- Title: Emotion Recognition in Contemporary Dance Performances Using Laban Movement Analysis
- Title(参考訳): ラバン動作解析を用いた現代舞踊演奏における感情認識
- Authors: Muhammad Turab, Philippe Colantoni, Damien Muselet, Alain Tremeau,
- Abstract要約: 本研究では,様々な感情状態下で現代舞踊を行うプロダンサーの3次元キーポイントデータから表現的特徴を抽出する。
我々はランダムフォレストやサポートベクターマシンを含む複数の分類器を訓練する。
全体として、現代舞踊における感情認識を改善し、パフォーマンス分析、ダンストレーニング、人間とコンピュータの相互作用における有望な応用を96.85%の精度で提供する。
- 参考スコア(独自算出の注目度): 0.562479170374811
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a novel framework for emotion recognition in contemporary dance by improving existing Laban Movement Analysis (LMA) feature descriptors and introducing robust, novel descriptors that capture both quantitative and qualitative aspects of the movement. Our approach extracts expressive characteristics from 3D keypoints data of professional dancers performing contemporary dance under various emotional states, and trains multiple classifiers, including Random Forests and Support Vector Machines. Additionally, we provide in-depth explanation of features and their impact on model predictions using explainable machine learning methods. Overall, our study improves emotion recognition in contemporary dance and offers promising applications in performance analysis, dance training, and human--computer interaction, with a highest accuracy of 96.85\%.
- Abstract(参考訳): 本稿では,既存のラベル・ムーブメント・アナリティクス(LMA)特徴記述子を改良し,動きの量的・質的な側面を捉えたロバストで新しい記述子を導入することで,現代舞踊における感情認識のための新しい枠組みを提案する。
提案手法は,様々な感情状態下で現代舞踊を行うプロダンサーの3次元キーポイントデータから表現的特徴を抽出し,ランダムフォレストやサポートベクトルマシンなどの複数の分類器を訓練する。
さらに、説明可能な機械学習手法を用いて、機能とそのモデル予測への影響を詳細に説明する。
全体として、現代舞踊における感情認識を改善し、パフォーマンス分析、ダンストレーニング、人間とコンピュータの相互作用において、96.85\%の精度で有望な応用を提供する。
関連論文リスト
- Dance Style Recognition Using Laban Movement Analysis [0.562479170374811]
本研究では,ラバン運動分析を用いて抽出した特徴を用いたダンススタイルの認識に焦点を当てた。
本研究では, 3次元ポーズ推定, 3次元メッシュ再構成, 床認識体モデルを組み合わせてLMA特徴を効果的に抽出する新しいパイプラインを提案する。
提案手法は99.18%の最高分類精度を達成し,時間的文脈の追加がダンススタイル認識性能を著しく向上させることを示す。
論文 参考訳(メタデータ) (2025-04-29T20:35:01Z) - Align Your Rhythm: Generating Highly Aligned Dance Poses with Gating-Enhanced Rhythm-Aware Feature Representation [22.729568599120846]
本研究では、リズム認識機能表現を強化するためにゲーティング機構を活用する新しいフレームワークであるDancebaを提案する。
位相に基づくリズム抽出(PRE)により、音楽相データからリズム情報を正確に抽出する。
TGCA(Temporal-Gated Causal Attention)は、グローバルリズミカルな特徴に焦点を当てる。
上肢と下肢の運動を別々にモデル化する並列マンバ運動モデリング(PMMM)アーキテクチャ。
論文 参考訳(メタデータ) (2025-03-21T17:42:50Z) - Duolando: Follower GPT with Off-Policy Reinforcement Learning for Dance Accompaniment [87.20240797625648]
舞踊伴奏と呼ばれる3次元舞踊生成の分野における新しい課題を紹介する。
これは、リードダンサーの動きと、基礎となる音楽リズムと同期した「フォロワー」と呼ばれるダンスパートナーからの応答的な動きを生成する必要がある。
本稿では,GPTに基づくDuolandoモデルを提案する。このモデルでは,音楽の協調情報,リーダの動作,従者の動きに基づいて,後続のトークン化動作を自動回帰予測する。
論文 参考訳(メタデータ) (2024-03-27T17:57:02Z) - Component attention network for multimodal dance improvisation
recognition [4.706373333495905]
本稿では,ダンス即興の文脈における人間動作認識のためのマルチモーダル融合法の適用と性能について検討する。
1) CANetとのフィーチャ融合,2) CANetとモデル融合,3) グラフ畳み込みネットワーク(GCN) ,3) 投票戦略による後期融合の3つのレベルにおけるマルチモーダル融合のためのアテンションベースモデルであるコンポーネントアテンションネットワーク(CANet)を提案する。
論文 参考訳(メタデータ) (2023-08-24T15:04:30Z) - TM2D: Bimodality Driven 3D Dance Generation via Music-Text Integration [75.37311932218773]
テキストと音楽の両方を同時に組み込んだ3Dダンス運動を生成するための新しいタスクを提案する。
本手法は,テキストと音楽の両方に調和した現実的かつ一貫性のあるダンスの動きを生成できると同時に,2つの単一モーダルと同等の性能を維持することができる。
論文 参考訳(メタデータ) (2023-04-05T12:58:33Z) - EDGE: Editable Dance Generation From Music [15.658163494375533]
編集可能ダンスジェネレーション(EDGE:Editable Dance GEneration)は、編集可能ダンス生成のための最先端の手法である。
入力された音楽に忠実なまま、リアルで物理的に称賛できるダンスを作ることができる。
論文 参考訳(メタデータ) (2022-11-19T10:41:38Z) - KP-RNN: A Deep Learning Pipeline for Human Motion Prediction and
Synthesis of Performance Art [0.0]
我々は、既存の画像処理と生成パイプラインと容易に統合できるニューラルネットワーク、KP-RNNを予測するための新しいアプローチを提供する。
我々は、KP-RNNの動作予測の有効性を実証するために、新しい人間の動作データセットであるTake The Leadと、モーション生成パイプラインであるEverybody Dance Nowシステムを用いている。
論文 参考訳(メタデータ) (2022-10-09T22:46:55Z) - BRACE: The Breakdancing Competition Dataset for Dance Motion Synthesis [123.73677487809418]
ダンス・モーション・シンセサイザーにおける一般的な仮定に挑戦する新しいデータセットを提案する。
我々は、アクロバティックな動きと絡み合った姿勢を特徴とするブレイクダンスに焦点を当てている。
BRACEデータセットは、3時間30分以上の濃密な注釈付きポーズを含む。
論文 参考訳(メタデータ) (2022-07-20T18:03:54Z) - Bailando: 3D Dance Generation by Actor-Critic GPT with Choreographic
Memory [92.81383016482813]
そこで我々は3Dキャラクターを1曲の楽曲に追従して踊るための新しい音楽間距離フレームワークBailandoを提案する。
本稿では,音楽に忠実な流麗なダンスにユニットを構成するアクタ批判型生成事前学習変換器(GPT)を紹介する。
提案するフレームワークは,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-24T13:06:43Z) - Music-to-Dance Generation with Optimal Transport [48.92483627635586]
本稿では,音楽から3Dダンス振付を生成するためのMDOT-Net(Music-to-Dance with Optimal Transport Network)を提案する。
生成したダンス分布とグロモフ=ワッサーシュタイン距離の信頼度を評価するための最適な移動距離を導入し、ダンス分布と入力音楽の対応性を測定する。
論文 参考訳(メタデータ) (2021-12-03T09:37:26Z) - Learning to dance: A graph convolutional adversarial network to generate
realistic dance motions from audio [7.612064511889756]
自然に音楽からダンスへと進むこと、つまりダンスを学ぶことは、人間が努力せずに演奏するより複雑な動きの1つである。
本稿では,音声情報から自動ダンス生成問題に取り組むために,グラフ畳み込みネットワークに基づく新しい手法を設計する。
提案手法は,入力された音楽音声に条件付き逆学習方式を用いて,異なる音楽スタイルの鍵となる動きを保存した自然な動きを生成する。
論文 参考訳(メタデータ) (2020-11-25T19:53:53Z) - Learning to Generate Diverse Dance Motions with Transformer [67.43270523386185]
ダンス・モーション・シンセサイザーのための完全なシステムを提案する。
大規模なダンスモーションデータセットはYouTubeビデオから作成される。
新たな2ストリームモーショントランス生成モデルでは、高い柔軟性で動作シーケンスを生成することができる。
論文 参考訳(メタデータ) (2020-08-18T22:29:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。