論文の概要: Fine-Grained Sports, Yoga, and Dance Postures Recognition: A Benchmark
Analysis
- arxiv url: http://arxiv.org/abs/2308.00323v1
- Date: Tue, 1 Aug 2023 07:00:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 15:12:57.851382
- Title: Fine-Grained Sports, Yoga, and Dance Postures Recognition: A Benchmark
Analysis
- Title(参考訳): きめ細かいスポーツ、ヨガ、ダンスの姿勢認識:ベンチマーク分析
- Authors: Asish Bera, Mita Nasipuri, Ondrej Krejcar, and Debotosh Bhattacharjee
- Abstract要約: 人体位置推定はコンピュータビジョンの複雑な問題である。
近年,スポーツ,ヨガ,ダンスの姿勢に関する研究が盛んに行われている。
CNNは、様々な人体推定問題の解決において、大幅な性能向上を実現している。
- 参考スコア(独自算出の注目度): 24.276782804825846
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human body-pose estimation is a complex problem in computer vision. Recent
research interests have been widened specifically on the Sports, Yoga, and
Dance (SYD) postures for maintaining health conditions. The SYD pose categories
are regarded as a fine-grained image classification task due to the complex
movement of body parts. Deep Convolutional Neural Networks (CNNs) have attained
significantly improved performance in solving various human body-pose
estimation problems. Though decent progress has been achieved in yoga postures
recognition using deep learning techniques, fine-grained sports, and dance
recognition necessitates ample research attention. However, no benchmark public
image dataset with sufficient inter-class and intra-class variations is
available yet to address sports and dance postures classification. To solve
this limitation, we have proposed two image datasets, one for 102 sport
categories and another for 12 dance styles. Two public datasets, Yoga-82 which
contains 82 classes and Yoga-107 represents 107 classes are collected for yoga
postures. These four SYD datasets are experimented with the proposed deep
model, SYD-Net, which integrates a patch-based attention (PbA) mechanism on top
of standard backbone CNNs. The PbA module leverages the self-attention
mechanism that learns contextual information from a set of uniform and
multi-scale patches and emphasizes discriminative features to understand the
semantic correlation among patches. Moreover, random erasing data augmentation
is applied to improve performance. The proposed SYD-Net has achieved
state-of-the-art accuracy on Yoga-82 using five base CNNs. SYD-Net's accuracy
on other datasets is remarkable, implying its efficiency. Our Sports-102 and
Dance-12 datasets are publicly available at
https://sites.google.com/view/syd-net/home.
- Abstract(参考訳): 人体位置推定はコンピュータビジョンの複雑な問題である。
近年、健康状態を維持するためのスポーツ、ヨガ、ダンス(SYD)の姿勢について研究が進められている。
SYDポーズカテゴリは、身体部分の複雑な動きによるきめ細かい画像分類タスクとみなされる。
深層畳み込みニューラルネットワーク (CNN) は, 様々な人体推定問題の解法において, 大幅な性能向上を実現している。
ヨガの姿勢認識には, 深層学習技術, きめ細かいスポーツ, ダンス認識が重要な課題となっている。
しかしながら、クラス間およびクラス内バリエーションが十分であるベンチマーク公開画像データセットは、スポーツやダンスの姿勢分類に対処するためにはまだ利用できない。
この制限を解決するために,スポーツカテゴリー102種目とダンススタイル12種目という2つの画像データセットを提案する。
2つの公開データセットであるYoga-82は82クラスで、Yoga-107は107クラスである。
これら4つのSYDデータセットは、標準バックボーンCNN上にパッチベースのアテンション(PbA)機構を統合する、提案されたディープモデルであるSYD-Netで実験される。
pbaモジュールは、一様および多スケールのパッチから文脈情報を学習するセルフアテンション機構を活用し、パッチ間の意味的相関を理解するために識別的特徴を強調する。
さらに、ランダム消去データ拡張を適用して性能を向上させる。
提案したSYD-Netは5つのベースCNNを用いてYoga-82の最先端の精度を達成した。
他のデータセットに対するSYD-Netの精度は、その効率を暗示している。
私たちのsports-102とdance-12データセットはhttps://sites.google.com/view/syd-net/homeで公開されている。
関連論文リスト
- Yoga Pose Classification Using Transfer Learning [0.0]
大規模なヨガポーズ認識のためのベンチマークデータセットであるYoga-82は、正確なアノテーションを不可能にする難しい位置にある。
私たちはVGG-16、ResNet-50、ResNet-101、DenseNet-121を使って、より良い結果を得るために様々な方法でそれらを微調整しました。
実験の結果,トップ1の精度85%,トップ5の精度96%のDenseNet-121が最高性能を示した。
論文 参考訳(メタデータ) (2024-10-29T14:34:18Z) - Improved Generalization of Weight Space Networks via Augmentations [53.87011906358727]
深度重み空間(DWS)における学習は新たな研究方向であり、2次元および3次元神経場(INRs, NeRFs)への応用
我々は、この過度な適合の理由を実証的に分析し、主要な理由は、DWSデータセットの多様性の欠如であることがわかった。
そこで本研究では,重み空間におけるデータ拡張戦略について検討し,重み空間に適応したMixUp法を提案する。
論文 参考訳(メタデータ) (2024-02-06T15:34:44Z) - Physics Inspired Hybrid Attention for SAR Target Recognition [61.01086031364307]
本稿では,物理にヒントを得たハイブリットアテンション(PIHA)機構と,この問題に対処するためのOFA評価プロトコルを提案する。
PIHAは、物理的情報の高レベルなセマンティクスを活用して、ターゲットの局所的なセマンティクスを認識した特徴群を活性化し、誘導する。
提案手法は,ASCパラメータが同じ12のテストシナリオにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-27T14:39:41Z) - An Efficient Deep Convolutional Neural Network Model For Yoga Pose
Recognition Using Single Images [2.6717276381722033]
本稿では,RGB画像からヨガを認識可能な,効率的な深部畳み込みニューラルネットワーク(CNN)モデルYPoseを提案する。
提案したモデルはYoga-82データセットでテストされている。
論文 参考訳(メタデータ) (2023-06-27T19:34:46Z) - Dataset Bias in Human Activity Recognition [57.91018542715725]
このコントリビューションは、トレーニングデータを統計的にキュレートし、人間の身体的特性がHARのパフォーマンスにどの程度影響するかを評価する。
時系列HARのセンサ,アクティビティ,記録の異なる2つのHARデータセット上で,最先端の畳み込みニューラルネットワークの性能を評価する。
論文 参考訳(メタデータ) (2023-01-19T12:33:50Z) - Posture Prediction for Healthy Sitting using a Smart Chair [0.0]
腰痛は筋骨格障害や腰痛のリスク因子として認識されている。
本研究は、人物の座位姿勢を分類するための機械学習モデルを構築する。
論文 参考訳(メタデータ) (2022-01-05T20:31:28Z) - Learning Dynamics via Graph Neural Networks for Human Pose Estimation
and Tracking [98.91894395941766]
ポーズ検出とは無関係なポーズダイナミクスを学習する新しいオンライン手法を提案する。
具体的には、空間的・時間的情報と視覚的情報の両方を明示的に考慮したグラフニューラルネットワーク(GNN)を通して、このダイナミクスの予測を導出する。
PoseTrack 2017とPoseTrack 2018データセットの実験では、提案手法が人間のポーズ推定とトラッキングタスクの両方において、技術の現状よりも優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2021-06-07T16:36:50Z) - Table Tennis Stroke Recognition Using Two-Dimensional Human Pose
Estimation [0.0]
本稿では,卓球映像データを集め,ストローク検出と分類を行う新しい手法を提案する。
14人のプロ卓球選手から得られた11の基本的なストロークのビデオデータを含む多様なデータセットが収集されている。
2次元ポーズ推定を用いて開発された時間畳み込みニューラルネットワークモデルは、これら11の卓球ストロークのマルチクラス分類を行う。
論文 参考訳(メタデータ) (2021-04-20T11:32:43Z) - FixMyPose: Pose Correctional Captioning and Retrieval [67.20888060019028]
本稿では,自動ポーズ修正システムに対応する新しいキャプションデータセットfixmyposeを提案する。
我々は「現在の」ポーズを「ターゲット」ポーズのように見えるように修正する記述を収集する。
MLバイアスを避けるため、さまざまな階層を持つキャラクタ間のバランスを維持します。
論文 参考訳(メタデータ) (2021-04-04T21:45:44Z) - Yoga-82: A New Dataset for Fine-grained Classification of Human Poses [46.319423568714505]
82クラスからなる大規模ヨガポーズ認識のためのデータセットYoga-82を提案する。
Yoga-82は、細かいアノテーションができない複雑なポーズで構成されている。
データセットには、体の位置、体の位置の変化、実際のポーズ名を含む3レベル階層が含まれている。
論文 参考訳(メタデータ) (2020-04-22T01:43:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。