論文の概要: CNN-based Speed Detection Algorithm for Walking and Running using
Wrist-worn Wearable Sensors
- arxiv url: http://arxiv.org/abs/2006.02348v1
- Date: Wed, 3 Jun 2020 15:53:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 18:02:34.232259
- Title: CNN-based Speed Detection Algorithm for Walking and Running using
Wrist-worn Wearable Sensors
- Title(参考訳): ウェアラブルセンサを用いたCNNによる歩行・走行速度検出アルゴリズム
- Authors: Venkata Devesh Reddy Seethi, Pratool Bharti
- Abstract要約: 本稿では,手首輪装置の加速度計とセンサデータを利用して,高精度な速度検出を行う畳み込みニューラルネットワークに基づくアルゴリズムの設計,実装,評価を行う。
我々の速度検出アルゴリズムは、それぞれ70~15ドルと1対1のクロスバリデーション評価戦略を用いて、MAPE(Mean Absolute Error Percentage)の4.2%と9.8%の値を達成した。
- 参考スコア(独自算出の注目度): 1.6708670748115966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, there have been a surge in ubiquitous technologies such as
smartwatches and fitness trackers that can track the human physical activities
effortlessly. These devices have enabled common citizens to track their
physical fitness and encourage them to lead a healthy lifestyle. Among various
exercises, walking and running are the most common ones people do in everyday
life, either through commute, exercise, or doing household chores. If done at
the right intensity, walking and running are sufficient enough to help
individual reach the fitness and weight-loss goals. Therefore, it is important
to measure walking/ running speed to estimate the burned calories along with
preventing them from the risk of soreness, injury, and burnout. Existing
wearable technologies use GPS sensor to measure the speed which is highly
energy inefficient and does not work well indoors. In this paper, we design,
implement and evaluate a convolutional neural network based algorithm that
leverages accelerometer and gyroscope sensory data from the wrist-worn device
to detect the speed with high precision. Data from $15$ participants were
collected while they were walking/running at different speeds on a treadmill.
Our speed detection algorithm achieved $4.2\%$ and $9.8\%$ MAPE (Mean Absolute
Error Percentage) value using $70-15-15$ train-test-evaluation split and
leave-one-out cross-validation evaluation strategy respectively.
- Abstract(参考訳): 近年、スマートウォッチやフィットネストラッカーなどのユビキタスな技術が急増し、人間の身体活動の追跡が絶え間なく行われている。
これらのデバイスにより、一般市民は身体のフィットネスをトラッキングし、健康的なライフスタイルを導くことができる。
様々な運動の中で、歩くことや走ることは、通勤、運動、家事など、人々が日常生活で行う最も一般的なことである。
適切な強度で行えば、歩行とランニングは個人がフィットネスと減量目標を達成するのに十分です。
そのため, 歩行・走行速度を計測し, 消費カロリーを推定し, 痛み, 怪我, 燃え尽きのリスクを防止できることが重要である。
既存のウェアラブル技術ではGPSセンサーを使用して、エネルギー効率が高く、屋内ではうまく動作しない速度を測定する。
本稿では, 加速度センサとジャイロスコープのセンサデータを利用した畳み込みニューラルネットワークに基づくアルゴリズムの設計, 実装, 評価を行い, 高精度な検出を行う。
15ドルの参加者のデータは、トレッドミルで異なる速度で歩いたり走ったりしながら収集された。
当社の速度検出アルゴリズムは、それぞれ70~15ドルの列車-テスト-評価分割と残1の相互評価評価戦略を用いて、4.2\%$と9.8\%$ mape (mean absolute error%) の値を達成した。
関連論文リスト
- Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - Calorie Burn Estimation in Community Parks Through DLICP: A Mathematical Modelling Approach [0.0]
本研究は,ディープラーニング技術,特に顔認識技術を組み合わせた革新的なアプローチであるDLICP(Deep Learning Integrated Community Parks)を紹介する。
DLICPは、顔認識ソフトウェアを備えたカメラを使用して、公園のユーザーを正確に識別し追跡する。
本研究は、インテリジェントなスマートパークシステムの開発に大きく貢献し、消費カロリーのリアルタイム更新とパーソナライズされたフィットネストラッキングを可能にした。
論文 参考訳(メタデータ) (2024-07-06T07:45:05Z) - Human Activity Recognition using Smartphones [0.0]
私たちは、日々の人間の活動を認識し、消費カロリーをリアルタイムで計算するAndroidアプリケーションを作成しました。
これは、メタボリック等価性に基づく式を用いて、リアルタイムな活動認識とカロリー燃焼の計算に使用される。
論文 参考訳(メタデータ) (2024-04-03T17:05:41Z) - P\=uioio: On-device Real-Time Smartphone-Based Automated Exercise
Repetition Counting System [1.4050836886292868]
本稿では,(1)ポーズ推定,(2)閾値保持,(3)オプティカルフロー,(4)ステートマシン,(5)カウンタの5つのコンポーネントからなるスマートフォンの深層学習に基づくエクササイズカウントシステムを紹介する。
システムはP=uioioと呼ばれるクロスプラットフォームのモバイルアプリケーションを通じて実装され、スマートフォンカメラのみを使用して3つの標準エクササイズ(スクワット、プッシュアップ、プルアップ)をリアルタイムで追跡する。
論文 参考訳(メタデータ) (2023-07-22T01:38:02Z) - QuestSim: Human Motion Tracking from Sparse Sensors with Simulated
Avatars [80.05743236282564]
人間の身体の動きのリアルタイム追跡は、AR/VRにおける没入感のある体験に不可欠である。
本稿では,HMDと2つのコントローラから疎信号を取り出す強化学習フレームワークを提案する。
一つのポリシーは、多様な移動スタイル、異なる体の大きさ、新しい環境に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:25:54Z) - Fatigue Prediction in Outdoor Running Conditions using Audio Data [48.43471521490844]
29%から79%のランナーは、毎年過剰な怪我を負っている。
この傷は過度の疲労と結びついており、人の走り方を変えます。
本研究では,疲労の主観的尺度である運動量(RPE)尺度(範囲:$[6-20]$)のモデル化の実現可能性について検討する。
対数メル分光器の畳み込みニューラルネットワーク(CNN)を用いて、被験者依存実験において平均絶対誤差が2.35ドルとなる。
論文 参考訳(メタデータ) (2022-05-09T14:44:05Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - Physical Activity Recognition by Utilising Smartphone Sensor Signals [0.0]
本研究では,現代のスマートフォンでジャイロスコープと加速度センサによって記録された計6つの活動に対して,60人の被験者から2日間にわたる人的活動データを収集した。
提案手法は,4つの活動の識別において,98%の分類精度を達成した。
論文 参考訳(メタデータ) (2022-01-20T09:58:52Z) - Benchmarking high-fidelity pedestrian tracking systems for research,
real-time monitoring and crowd control [55.41644538483948]
実生活環境における高忠実な歩行者追跡は,群集動態研究において重要なツールである。
この技術が進歩するにつれて、社会においても益々有用になってきている。
歩行者追跡技術の研究と技術に成功させるためには、正確さの検証とベンチマークが不可欠である。
我々は、プライバシーに配慮した歩行者追跡技術のためのベンチマークスイートをコミュニティのオープンスタンダードに向けて提示し、議論する。
論文 参考訳(メタデータ) (2021-08-26T11:45:26Z) - SDOF-Tracker: Fast and Accurate Multiple Human Tracking by
Skipped-Detection and Optical-Flow [5.041369269600902]
本研究では,あるフレーム間隔で人間検出を行うことにより,走行速度の向上を図ることを目的とする。
本稿では, 隣接フレーム間の外観があまり変化しないという事実に基づいて, 検出結果を光学的流れで補完する手法を提案する。
MOTChallengeのMOT20データセットでは、提案されたSDOF-Trackerが全走行速度で最高の性能を達成した。
論文 参考訳(メタデータ) (2021-06-27T15:35:35Z) - Pedestrian orientation dynamics from high-fidelity measurements [65.06084067891364]
本研究では,歩行者の運動の一般的な物理的特性に基づいて学習するディープ・ニューラル・アーキテクチャに基づく新しい計測手法を提案する。
提案手法は, 誤差を7.5度まで低減し, 向きを推定できることを示す。
このツールは、方向が鍵となる人間の群集力学の研究において、新たな可能性を開く。
論文 参考訳(メタデータ) (2020-01-14T07:08:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。