論文の概要: An Examination of Wearable Sensors and Video Data Capture for Human
Exercise Classification
- arxiv url: http://arxiv.org/abs/2307.04516v1
- Date: Mon, 10 Jul 2023 12:24:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 13:12:12.366054
- Title: An Examination of Wearable Sensors and Video Data Capture for Human
Exercise Classification
- Title(参考訳): 人間の運動分類のためのウェアラブルセンサと映像データキャプチャの検討
- Authors: Ashish Singh and Antonio Bevilacqua and Timilehin B. Aderinola and
Thach Le Nguyen and Darragh Whelan and Martin O'Reilly and Brian Caulfield
and Georgiana Ifrim
- Abstract要約: IMUの性能を実世界の2つのデータセット上での人間の運動分類のためのビデオベースアプローチと比較する。
一つのカメラをベースとしたアプローチは、平均10ポイントのIMUを上回り得る。
このアプリケーションでは、簡単に使えるスマートフォンカメラと1台のセンサーを組み合わせることで、人間の運動を効果的に分類することができる。
- 参考スコア(独自算出の注目度): 9.674125829493214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Wearable sensors such as Inertial Measurement Units (IMUs) are often used to
assess the performance of human exercise. Common approaches use handcrafted
features based on domain expertise or automatically extracted features using
time series analysis. Multiple sensors are required to achieve high
classification accuracy, which is not very practical. These sensors require
calibration and synchronization and may lead to discomfort over longer time
periods. Recent work utilizing computer vision techniques has shown similar
performance using video, without the need for manual feature engineering, and
avoiding some pitfalls such as sensor calibration and placement on the body. In
this paper, we compare the performance of IMUs to a video-based approach for
human exercise classification on two real-world datasets consisting of Military
Press and Rowing exercises. We compare the performance using a single camera
that captures video in the frontal view versus using 5 IMUs placed on different
parts of the body. We observe that an approach based on a single camera can
outperform a single IMU by 10 percentage points on average. Additionally, a
minimum of 3 IMUs are required to outperform a single camera. We observe that
working with the raw data using multivariate time series classifiers
outperforms traditional approaches based on handcrafted or automatically
extracted features. Finally, we show that an ensemble model combining the data
from a single camera with a single IMU outperforms either data modality. Our
work opens up new and more realistic avenues for this application, where a
video captured using a readily available smartphone camera, combined with a
single sensor, can be used for effective human exercise classification.
- Abstract(参考訳): 慣性測定ユニット(IMU)のようなウェアラブルセンサーは、人間の運動の性能を評価するためにしばしば使用される。
一般的なアプローチでは、ドメインの専門知識に基づいた手作りの機能や、時系列分析を使用して自動抽出機能を使用する。
高い分類精度を達成するには複数のセンサが必要であるが、あまり実用的ではない。
これらのセンサーはキャリブレーションと同期を必要とし、長期間にわたって不快な状態に陥る可能性がある。
コンピュータビジョン技術を用いた最近の研究は、手動の特徴工学を必要とせず、また、センサーの校正や体への配置などの落とし穴を避けるために、ビデオを用いた同様の性能を示した。
本稿では,IMUの性能を,軍事プレスとローイングの2つの実世界のデータセット上での人間の運動分類のためのビデオベースアプローチと比較する。
正面からの映像を撮影する1台のカメラと、身体の異なる部分に置かれる5台のIMUとを比較した。
我々は、単一のカメラに基づくアプローチが、平均で1つのimuを10ポイント上回ることを観察する。
さらに、1台のカメラを上回るためには最低3台のIMUが必要である。
多変量時系列分類器を用いた生データ処理は,手作業や自動抽出機能に基づいて従来の手法よりも優れていた。
最後に,単一カメラと単一imuのデータを組み合わせたアンサンブルモデルが,どちらのデータモダリティよりも優れていることを示す。
私たちの研究は、スマートフォンのカメラで撮影されたビデオを単一のセンサーと組み合わせることで、人間の運動の効果的な分類に利用できる、このアプリケーションのための、より現実的な新しい道を開きます。
関連論文リスト
- Redundancy-Aware Camera Selection for Indoor Scene Neural Rendering [54.468355408388675]
カメラの空間的多様性と画像の意味的変動の両方を取り入れた類似度行列を構築した。
カメラ選択を最適化するために,多様性に基づくサンプリングアルゴリズムを適用した。
IndoorTrajという新しいデータセットも開発しています。仮想屋内環境で人間が捉えた、長くて複雑なカメラの動きが含まれています。
論文 参考訳(メタデータ) (2024-09-11T08:36:49Z) - Practical Video Object Detection via Feature Selection and Aggregation [18.15061460125668]
ビデオオブジェクト検出(VOD)は、オブジェクトの外観における高いフレーム間変動と、いくつかのフレームにおける多様な劣化を懸念する必要がある。
現代のアグリゲーション法のほとんどは、高い計算コストに苦しむ2段階検出器用に調整されている。
この研究は、特徴選択と集約の非常に単純だが強力な戦略を考案し、限界計算コストでかなりの精度を得る。
論文 参考訳(メタデータ) (2024-07-29T02:12:11Z) - MuJo: Multimodal Joint Feature Space Learning for Human Activity Recognition [2.7532797256542403]
HAR(Human Activity Recognition)は、医療、スポーツ、フィットネス、セキュリティなど、幅広い分野で応用されているAIの長年の問題である。
本研究では,HAR 性能を向上させるため,総合的な Fitness Multimodal Activity データセット (FiMAD) を導入する。
MM-Fit,myoGym, MotionSense, MHEALTH などの実HARデータセット上で,FiMAD で事前学習した分類器の性能が向上することを示す。
論文 参考訳(メタデータ) (2024-06-06T08:42:36Z) - HMP: Hand Motion Priors for Pose and Shape Estimation from Video [52.39020275278984]
我々は,多種多様な高品質の手の動きを特徴とするAMASSデータセットに基づいて,手動に特有な生成動作を開発する。
頑健な動きの統合は、特に隠蔽されたシナリオにおいて、パフォーマンスを著しく向上させる。
HO3DおよびDexYCBデータセットの質的および定量的評価により,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-12-27T22:35:33Z) - Efficient Adaptive Human-Object Interaction Detection with
Concept-guided Memory [64.11870454160614]
概念誘導メモリ(ADA-CM)を用いた適応型HOI検出器を提案する。
ADA-CMには2つの操作モードがある。最初のモードでは、トレーニング不要のパラダイムで新しいパラメータを学習することなくチューニングできる。
提案手法は, HICO-DET と V-COCO のデータセットに対して, より少ないトレーニング時間で, 最新技術による競合的な結果を得る。
論文 参考訳(メタデータ) (2023-09-07T13:10:06Z) - Fast and Robust Video-Based Exercise Classification via Body Pose
Tracking and Scalable Multivariate Time Series Classifiers [13.561233730881279]
本稿では,ビデオを用いたS&C演習の分類の応用について述べる。
そこで本研究では,BodyMTSという手法を用いて,映像を時系列に変換する手法を提案する。
その結果,BodyMTSの平均精度は87%であり,これはヒトドメインの専門家の精度よりも有意に高いことがわかった。
論文 参考訳(メタデータ) (2022-10-02T13:03:38Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Muscle Vision: Real Time Keypoint Based Pose Classification of Physical
Exercises [52.77024349608834]
ビデオから外挿された3D人間のポーズ認識は、リアルタイムソフトウェアアプリケーションを可能にするまで進歩した。
本稿では,ライブビデオフィード上で人間のポーズ認識を行う新しい機械学習パイプラインとWebインターフェースを提案する。
論文 参考訳(メタデータ) (2022-03-23T00:55:07Z) - Human Activity Recognition models using Limited Consumer Device Sensors
and Machine Learning [0.0]
ヒトの活動認識は、日常生活や医療環境における応用の増加とともに人気が高まっている。
本稿では,スマートフォンやスマートウォッチのセンサデータを用いた訓練に限定した各種モデルの発見について述べる。
結果は、スマートフォンとスマートウォッチのみから収集された限られたセンサーデータと、従来の機械学習の概念とアルゴリズムとを厳格に併用したモデルの可能性を示している。
論文 参考訳(メタデータ) (2022-01-21T06:54:05Z) - One to Many: Adaptive Instrument Segmentation via Meta Learning and
Dynamic Online Adaptation in Robotic Surgical Video [71.43912903508765]
MDALは、ロボット支援手術における機器セグメンテーションのための動的オンライン適応学習スキームです。
ビデオ固有のメタ学習パラダイムを通じて、楽器の一般的な知識と高速適応能力を学ぶ。
2つのデータセットで他の最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-03-24T05:02:18Z) - Yet it moves: Learning from Generic Motions to Generate IMU data from
YouTube videos [5.008235182488304]
我々は、加速度計とジャイロ信号の両方の一般的な動きの回帰モデルをトレーニングして、合成IMUデータを生成する方法を示す。
我々は、回帰モデルにより生成されたシミュレーションデータに基づいてトレーニングされたシステムが、実センサデータに基づいてトレーニングされたシステムのF1スコアの平均の約10%に到達できることを実証した。
論文 参考訳(メタデータ) (2020-11-23T18:16:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。