論文の概要: Ballroom Dance Movement Recognition Using a Smart Watch
- arxiv url: http://arxiv.org/abs/2008.10122v2
- Date: Fri, 4 Sep 2020 05:25:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 03:19:58.428200
- Title: Ballroom Dance Movement Recognition Using a Smart Watch
- Title(参考訳): スマートウォッチを用いた舞踏舞踊運動認識
- Authors: Varun Badrinath Krishna
- Abstract要約: 球場舞踊の文脈における1つのスマートウォッチを用いた全身運動検出研究について述べる。
深層学習表現は、よく定義された動きの列を分類するために用いられる。
85.95%の分類精度は92.31%に向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inertial Measurement Unit (IMU) sensors are being increasingly used to detect
human gestures and movements. Using a single IMU sensor, whole body movement
recognition remains a hard problem because movements may not be adequately
captured by the sensor. In this paper, we present a whole body movement
detection study using a single smart watch in the context of ballroom dancing.
Deep learning representations are used to classify well-defined sequences of
movements, called \emph{figures}. Those representations are found to outperform
ensembles of random forests and hidden Markov models. The classification
accuracy of 85.95\% was improved to 92.31\% by modeling a dance as a
first-order Markov chain of figures and correcting estimates of the immediately
preceding figure.
- Abstract(参考訳): 慣性計測ユニット(IMU)センサーは、人間のジェスチャーや動きを検出するためにますます使われている。
単一のIMUセンサーを使用することで、体の動きの認識は、センサによって適切に捉えられていないため、依然として難しい問題である。
本稿では,ボールルームダンスの文脈における1つのスマートウォッチを用いた全身運動検出研究について述べる。
深層学習表現は、よく定義された動きの列を分類するために使われる。
これらの表現はランダムな森と隠れマルコフ模型のアンサンブルよりも優れている。
85.95\%の分類精度が92.31\%に向上し、ダンスを図の1次マルコフ連鎖としてモデル化し、直前の図の推定を補正した。
関連論文リスト
- No Identity, no problem: Motion through detection for people tracking [48.708733485434394]
本稿では,検出のみの監視を行いながら,動きの手がかりを利用する手法を提案する。
提案アルゴリズムは,2つの画像間の2次元運動推定とともに,2つの異なるタイミングで熱マップを検出する。
提案手法は,MOT17およびWILDTRACKデータセット上でのマルチターゲット・シングルビュー・マルチターゲット・トラッキングに対して,最先端の結果を提供する。
論文 参考訳(メタデータ) (2024-11-25T15:13:17Z) - Flow Snapshot Neurons in Action: Deep Neural Networks Generalize to Biological Motion Perception [6.359236783105098]
生物学的運動知覚(BMP)とは、人間の行動パターンからのみ生物の行動を認識し、認識する能力である。
本稿では,ビデオクリップからのパッチレベルの光フローを入力として利用するMotion Perceiver (MP)を提案する。
MPは、トップ1アクション認識精度が最大29%向上した既存のAIモデルすべてを上回っている。
論文 参考訳(メタデータ) (2024-05-26T09:11:46Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Utilizing Task-Generic Motion Prior to Recover Full-Body Motion from
Very Sparse Signals [3.8079353598215757]
本稿では,再建したユーザの動作の精度を向上させるために,神経動作からの情報を利用する手法を提案する。
これは、ポーズ復元の最終的な目標は一連のポーズである動きを再構築することである、という前提に基づいている。
論文 参考訳(メタデータ) (2023-08-30T08:21:52Z) - Priority-Centric Human Motion Generation in Discrete Latent Space [59.401128190423535]
テキスト・ツー・モーション生成のための優先中心運動離散拡散モデル(M2DM)を提案する。
M2DMは、コード崩壊に対処するために、グローバルな自己注意機構と正規化用語を組み込んでいる。
また、各動きトークンの重要度から決定される革新的なノイズスケジュールを用いた動き離散拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-08-28T10:40:16Z) - BRACE: The Breakdancing Competition Dataset for Dance Motion Synthesis [123.73677487809418]
ダンス・モーション・シンセサイザーにおける一般的な仮定に挑戦する新しいデータセットを提案する。
我々は、アクロバティックな動きと絡み合った姿勢を特徴とするブレイクダンスに焦点を当てている。
BRACEデータセットは、3時間30分以上の濃密な注釈付きポーズを含む。
論文 参考訳(メタデータ) (2022-07-20T18:03:54Z) - Motion Gait: Gait Recognition via Motion Excitation [5.559482051571756]
本研究では,時間的特徴をガイドする動作励起モジュール (MEM) を提案する。
MEMはフレームと間隔の違い情報を学習し、時間変動の表現を得る。
本研究では,人間の水平部分の空間的時間的表現に基づいて独立に学習するファイン・フィーチャー・エクストラクタ(EFF)を提案する。
論文 参考訳(メタデータ) (2022-06-22T13:47:14Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Unsupervised 3D Pose Estimation for Hierarchical Dance Video Recognition [13.289339907084424]
階層型ダンスビデオ認識フレームワーク(HDVR)を提案する。
HDVRは2Dポーズシーケンスを推定し、ダンサーを追跡し、同時に対応する3Dポーズと3Dから2Dイメージングパラメータを推定する。
推定した3Dポーズシーケンスから、HDVRは身体部分の動きを抽出し、ダンスジャンルから抽出する。
論文 参考訳(メタデータ) (2021-09-19T16:59:37Z) - Learning to dance: A graph convolutional adversarial network to generate
realistic dance motions from audio [7.612064511889756]
自然に音楽からダンスへと進むこと、つまりダンスを学ぶことは、人間が努力せずに演奏するより複雑な動きの1つである。
本稿では,音声情報から自動ダンス生成問題に取り組むために,グラフ畳み込みネットワークに基づく新しい手法を設計する。
提案手法は,入力された音楽音声に条件付き逆学習方式を用いて,異なる音楽スタイルの鍵となる動きを保存した自然な動きを生成する。
論文 参考訳(メタデータ) (2020-11-25T19:53:53Z) - Fusing Motion Patterns and Key Visual Information for Semantic Event
Recognition in Basketball Videos [87.29451470527353]
バスケットボールビデオのセマンティックイベント認識のために,グローバル・ローカル・モーション・パターン(MP)とキー視覚情報(KVI)を融合する手法を提案する。
カメラ調整の本質的特性に基づいて, 混合運動から大域的な動きを推定するアルゴリズムを提案する。
グローバル・ローカル・モーション・パターンを分離した2ストリーム3D CNNフレームワークを用いてグループ活動認識を行う。
論文 参考訳(メタデータ) (2020-07-13T10:15:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。