論文の概要: AfroBeats Dance Movement Analysis Using Computer Vision: A Proof-of-Concept Framework Combining YOLO and Segment Anything Model
- arxiv url: http://arxiv.org/abs/2512.03509v1
- Date: Wed, 03 Dec 2025 07:06:06 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:04:14.248039
- Title: AfroBeats Dance Movement Analysis Using Computer Vision: A Proof-of-Concept Framework Combining YOLO and Segment Anything Model
- Title(参考訳): AfroBeats Dance Movement Analysis Using Computer Vision: a Proof-of-Concept Framework Using YOLO and Segment Anything Model (特集:「ダンス・ムーブメント」)
- Authors: Kwaku Opoku-Ware, Gideon Opoku,
- Abstract要約: 本稿では,ダンサー検出のための YOLOv8 と v11 を,正確にセグメンテーションのための Segment Anything Model (SAM) と統合する概念実証フレームワークを提案する。
提案手法は,映像フレーム内のダンサーを識別し,個別のダンスステップをカウントし,空間被覆パターンを計算し,演奏シーケンス間のリズムの整合性を測定する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper presents a preliminary investigation into automated dance movement analysis using contemporary computer vision techniques. We propose a proof-of-concept framework that integrates YOLOv8 and v11 for dancer detection with the Segment Anything Model (SAM) for precise segmentation, enabling the tracking and quantification of dancer movements in video recordings without specialized equipment or markers. Our approach identifies dancers within video frames, counts discrete dance steps, calculates spatial coverage patterns, and measures rhythm consistency across performance sequences. Testing this framework on a single 49-second recording of Ghanaian AfroBeats dance demonstrates technical feasibility, with the system achieving approximately 94% detection precision and 89% recall on manually inspected samples. The pixel-level segmentation provided by SAM, achieving approximately 83% intersection-over-union with visual inspection, enables motion quantification that captures body configuration changes beyond what bounding-box approaches can represent. Analysis of this preliminary case study indicates that the dancer classified as primary by our system executed 23% more steps with 37% higher motion intensity and utilized 42% more performance space compared to dancers classified as secondary. However, this work represents an early-stage investigation with substantial limitations including single-video validation, absence of systematic ground truth annotations, and lack of comparison with existing pose estimation methods. We present this framework to demonstrate technical feasibility, identify promising directions for quantitative dance metrics, and establish a foundation for future systematic validation studies.
- Abstract(参考訳): 本稿では,現代コンピュータビジョン技術を用いた自動舞踊動作解析の予備的検討を行う。
そこで本研究では, YOLOv8 と v11 を統合した概念実証フレームワークを提案し, 高精度なセグメンテーションのためのセグメンテーションモデル (SAM) を用いて, 特殊な機器やマーカーを使わずに, 映像記録におけるダンサーの動きの追跡と定量化を可能にする。
提案手法は,映像フレーム内のダンサーを識別し,個別のダンスステップをカウントし,空間被覆パターンを計算し,演奏シーケンス間のリズムの整合性を測定する。
このフレームワークをガーナのAfroBeatsダンスの49秒の1枚の記録でテストしたところ、手動で検査したサンプルに対して約94%の精度と89%のリコールを達成し、技術的実現可能性を示している。
SAMによって提供されるピクセルレベルのセグメンテーションは、視覚検査とほぼ83%の交差一致を実現し、バウンディングボックスアプローチが表現できる範囲を超えて、身体構成の変化をキャプチャするモーション量子化を可能にする。
予備ケーススタディでは,プライマリに分類されたダンサーは,37%の運動強度で23%以上のステップを実行し,セカンダリに分類したダンサーに比べて42%の演奏空間を利用できた。
しかし、この研究は、単一ビデオ検証、体系的基底真理アノテーションの欠如、既存のポーズ推定手法との比較の欠如など、かなりの制限のある初期段階の調査である。
本フレームワークは,技術的実現可能性の実証,定量的ダンスメトリクスの有望な方向の同定,今後の体系的検証研究の基盤の確立を目的としている。
関連論文リスト
- Emotion Recognition in Contemporary Dance Performances Using Laban Movement Analysis [0.562479170374811]
本研究では,様々な感情状態下で現代舞踊を行うプロダンサーの3次元キーポイントデータから表現的特徴を抽出する。
我々はランダムフォレストやサポートベクターマシンを含む複数の分類器を訓練する。
全体として、現代舞踊における感情認識を改善し、パフォーマンス分析、ダンストレーニング、人間とコンピュータの相互作用における有望な応用を96.85%の精度で提供する。
論文 参考訳(メタデータ) (2025-04-29T20:17:27Z) - Duolando: Follower GPT with Off-Policy Reinforcement Learning for Dance Accompaniment [87.20240797625648]
舞踊伴奏と呼ばれる3次元舞踊生成の分野における新しい課題を紹介する。
これは、リードダンサーの動きと、基礎となる音楽リズムと同期した「フォロワー」と呼ばれるダンスパートナーからの応答的な動きを生成する必要がある。
本稿では,GPTに基づくDuolandoモデルを提案する。このモデルでは,音楽の協調情報,リーダの動作,従者の動きに基づいて,後続のトークン化動作を自動回帰予測する。
論文 参考訳(メタデータ) (2024-03-27T17:57:02Z) - Component attention network for multimodal dance improvisation
recognition [4.706373333495905]
本稿では,ダンス即興の文脈における人間動作認識のためのマルチモーダル融合法の適用と性能について検討する。
1) CANetとのフィーチャ融合,2) CANetとモデル融合,3) グラフ畳み込みネットワーク(GCN) ,3) 投票戦略による後期融合の3つのレベルにおけるマルチモーダル融合のためのアテンションベースモデルであるコンポーネントアテンションネットワーク(CANet)を提案する。
論文 参考訳(メタデータ) (2023-08-24T15:04:30Z) - PMI Sampler: Patch Similarity Guided Frame Selection for Aerial Action
Recognition [52.78234467516168]
本稿では、隣接フレーム間の動きバイアスを定量化するために、パッチ相互情報(PMI)スコアの概念を導入する。
シフトリークReLuと累積分布関数を用いた適応フレーム選択方式を提案する。
本手法は,UAV-Humanの2.2~13.8%,NEC Droneの6.8%,Diving48データセットの9.0%の相対的な改善を実現している。
論文 参考訳(メタデータ) (2023-04-14T00:01:11Z) - GaitMM: Multi-Granularity Motion Sequence Learning for Gait Recognition [6.877671230651998]
歩行認識は、各身体部位の異なる周期的な動きを観察することにより、個人固有の歩行パターンを識別することを目的としている。
既存のほとんどの手法は各部分を等しく扱い、異なるステップ周波数と歩行のサンプリングレートによって引き起こされるデータの冗長性を考慮できない。
本研究では,歩行系列学習のためのマルチグラニュラリティ動作表現(GaitMM)を提案する。
論文 参考訳(メタデータ) (2022-09-18T04:07:33Z) - BRACE: The Breakdancing Competition Dataset for Dance Motion Synthesis [123.73677487809418]
ダンス・モーション・シンセサイザーにおける一般的な仮定に挑戦する新しいデータセットを提案する。
我々は、アクロバティックな動きと絡み合った姿勢を特徴とするブレイクダンスに焦点を当てている。
BRACEデータセットは、3時間30分以上の濃密な注釈付きポーズを含む。
論文 参考訳(メタデータ) (2022-07-20T18:03:54Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Ballroom Dance Movement Recognition Using a Smart Watch [0.0]
球場舞踊の文脈における1つのスマートウォッチを用いた全身運動検出研究について述べる。
深層学習表現は、よく定義された動きの列を分類するために用いられる。
85.95%の分類精度は92.31%に向上した。
論文 参考訳(メタデータ) (2020-08-23T22:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。