論文の概要: P\=uioio: On-device Real-Time Smartphone-Based Automated Exercise
Repetition Counting System
- arxiv url: http://arxiv.org/abs/2308.02420v1
- Date: Sat, 22 Jul 2023 01:38:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 01:38:50.673673
- Title: P\=uioio: On-device Real-Time Smartphone-Based Automated Exercise
Repetition Counting System
- Title(参考訳): P\=uioio:オンデバイスリアルタイムスマートフォンベースの自動エクササイズカウントシステム
- Authors: Adam Sinclair, Kayla Kautai, and Seyed Reza Shahamiri
- Abstract要約: 本稿では,(1)ポーズ推定,(2)閾値保持,(3)オプティカルフロー,(4)ステートマシン,(5)カウンタの5つのコンポーネントからなるスマートフォンの深層学習に基づくエクササイズカウントシステムを紹介する。
システムはP=uioioと呼ばれるクロスプラットフォームのモバイルアプリケーションを通じて実装され、スマートフォンカメラのみを使用して3つの標準エクササイズ(スクワット、プッシュアップ、プルアップ)をリアルタイムで追跡する。
- 参考スコア(独自算出の注目度): 1.4050836886292868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated exercise repetition counting has applications across the physical
fitness realm, from personal health to rehabilitation. Motivated by the
ubiquity of mobile phones and the benefits of tracking physical activity, this
study explored the feasibility of counting exercise repetitions in real-time,
using only on-device inference, on smartphones. In this work, after providing
an extensive overview of the state-of-the-art automatic exercise repetition
counting methods, we introduce a deep learning based exercise repetition
counting system for smartphones consisting of five components: (1) Pose
estimation, (2) Thresholding, (3) Optical flow, (4) State machine, and (5)
Counter. The system is then implemented via a cross-platform mobile application
named P\=uioio that uses only the smartphone camera to track repetitions in
real time for three standard exercises: Squats, Push-ups, and Pull-ups. The
proposed system was evaluated via a dataset of pre-recorded videos of
individuals exercising as well as testing by subjects exercising in real time.
Evaluation results indicated the system was 98.89% accurate in real-world tests
and up to 98.85% when evaluated via the pre-recorded dataset. This makes it an
effective, low-cost, and convenient alternative to existing solutions since the
proposed system has minimal hardware requirements without requiring any
wearable or specific sensors or network connectivity.
- Abstract(参考訳): 自動運動繰り返しカウントは、健康状態からリハビリ状態まで、身体的なフィットネス領域に応用できる。
携帯電話の普及と身体活動の追跡の利点に触発された本研究では,スマートフォン上でのデバイス上の推論のみを用いて,リアルタイムに運動繰り返しをカウントできる可能性を検討した。
本研究では,現在最先端の自動エクササイズカウント法を概観した上で,(1)ポーズ推定,(2)Thresholding,(3)光流,(4)ステートマシン,(5)カウンタの5つのコンポーネントからなるスマートフォン用ディープラーニングベースのエクササイズカウントシステムを提案する。
システムはP\=uioioと呼ばれるクロスプラットフォームのモバイルアプリケーションで実装され、スマートフォンカメラのみを使用して3つの標準エクササイズ(スクワット、プッシュアップ、プルアップ)をリアルタイムで追跡する。
提案システムは,被運動者の事前記録映像のデータセットと,被運動者による実時間試験により評価した。
評価の結果、実際のテストでは98.89%、事前に記録されたデータセットで評価すると98.85%の精度が得られた。
提案システムは、ウェアラブルや特定のセンサーやネットワーク接続を必要とせずに、最小限のハードウェア要件を持つため、既存のソリューションに対して効果的で低コストで便利な代替手段となる。
関連論文リスト
- Human Activity Recognition using Smartphones [0.0]
私たちは、日々の人間の活動を認識し、消費カロリーをリアルタイムで計算するAndroidアプリケーションを作成しました。
これは、メタボリック等価性に基づく式を用いて、リアルタイムな活動認識とカロリー燃焼の計算に使用される。
論文 参考訳(メタデータ) (2024-04-03T17:05:41Z) - Generalization of Fitness Exercise Recognition from Doppler Measurements
by Domain-adaption and Few-Shot Learning [12.238586191793997]
以前の研究では、未修正の市販オフザシェルフスマートフォンを使用して、全身運動を認識するモバイルアプリケーションを開発した。
このような実験室環境のトレーニングされたモデルを現実的なアプリケーションのバリエーションに適用することは、パフォーマンスを著しく低下させます。
本稿では、フィットネスエクササイズの制御および制御されていないサブセットを持つデータベースを提案する。
論文 参考訳(メタデータ) (2023-11-20T16:40:48Z) - Using Learnable Physics for Real-Time Exercise Form Recommendations [2.1548132286330453]
本稿では,エクササイズ手法の問題点を診断し,修正レコメンデーションを提供するアルゴリズムパイプラインを提案する。
我々は、ポーズ認識にMediaPipeを使用し、ピークプロミネンス検出による反復数をカウントし、学習可能な物理シミュレータを用いて動きの進化を追跡する。
論文 参考訳(メタデータ) (2023-10-11T06:11:11Z) - Design, Development, and Evaluation of an Interactive Personalized
Social Robot to Monitor and Coach Post-Stroke Rehabilitation Exercises [68.37238218842089]
パーソナライズされたリハビリテーションのための対話型ソーシャルロボット運動指導システムを開発した。
このシステムは、ニューラルネットワークモデルとルールベースのモデルを統合し、患者のリハビリテーション運動を自動的に監視し、評価する。
我々のシステムは,新たな参加者に適応し,専門家の合意レベルに匹敵する,エクササイズを評価するための平均パフォーマンス0.81を達成できる。
論文 参考訳(メタデータ) (2023-05-12T17:37:04Z) - Your Identity is Your Behavior -- Continuous User Authentication based
on Machine Learning and Touch Dynamics [0.0]
本研究は,LG V30+を用いた40名の被験者から収集したタッチダイナミクスのデータセットを用いた。
参加者は4つのモバイルゲーム、Diep.io、Slither、Minecraftをそれぞれ10分間プレイした。
研究の結果,3つのアルゴリズムがそれぞれ,個々のタッチダイナミクスに基づいてユーザを効果的に分類できることが判明した。
論文 参考訳(メタデータ) (2023-04-24T13:45:25Z) - Online Learning of Wheel Odometry Correction for Mobile Robots with
Attention-based Neural Network [63.8376359764052]
現代のロボットプラットフォームは、人間の横で毎日運用するために、信頼性の高いローカライゼーションシステムを必要としている。
フィルタされた車輪と慣性オドメトリーに基づく単純なポーズ推定アルゴリズムは、急激なキネマティックな変化とホイールスリップの存在下で失敗することが多い。
本稿では,車輪形状補正のための革新的なオンライン学習手法を提案し,ロバストなマルチソースローカライゼーションシステムを提案する。
論文 参考訳(メタデータ) (2023-03-21T10:30:31Z) - Muscle Vision: Real Time Keypoint Based Pose Classification of Physical
Exercises [52.77024349608834]
ビデオから外挿された3D人間のポーズ認識は、リアルタイムソフトウェアアプリケーションを可能にするまで進歩した。
本稿では,ライブビデオフィード上で人間のポーズ認識を行う新しい機械学習パイプラインとWebインターフェースを提案する。
論文 参考訳(メタデータ) (2022-03-23T00:55:07Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - Exploring System Performance of Continual Learning for Mobile and
Embedded Sensing Applications [19.334890205028568]
本研究は,3つの主要な連続学習手法の性能を定量化する総合的な実証的研究である。
エッジデバイス上でのエンドツーエンドの継続的学習フレームワークを実装した。
メモリ予算が限られているデバイス上で連続的な学習が実現可能であることを初めて実証する。
論文 参考訳(メタデータ) (2021-10-25T22:06:26Z) - An Extensible Benchmark Suite for Learning to Simulate Physical Systems [60.249111272844374]
我々は、統一されたベンチマークと評価プロトコルへの一歩を踏み出すために、一連のベンチマーク問題を導入する。
本稿では,4つの物理系と,広く使用されている古典的時間ベースおよび代表的なデータ駆動手法のコレクションを提案する。
論文 参考訳(メタデータ) (2021-08-09T17:39:09Z) - Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device [53.323878851563414]
本稿では,強化学習技術を用いたネットワーク拡張とpruning検索を組み込んだコンパイラ対応統一フレームワークを提案する。
具体的には,リカレントニューラルネットワーク(RNN)を用いて,ネットワークの強化とプルーニングの両面での統一的なスキームを自動で提供する。
提案手法は,モバイルデバイス上でのリアルタイム3次元物体検出を実現する。
論文 参考訳(メタデータ) (2020-12-26T19:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。