論文の概要: WearableMil: An End-to-End Framework for Military Activity Recognition and Performance Monitoring
- arxiv url: http://arxiv.org/abs/2410.05452v2
- Date: Sat, 11 Jan 2025 01:08:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:21:17.942787
- Title: WearableMil: An End-to-End Framework for Military Activity Recognition and Performance Monitoring
- Title(参考訳): WearableMil: 軍事活動認識とパフォーマンス監視のためのエンドツーエンドフレームワーク
- Authors: Barak Gahtan, Shany Funk, Einat Kodesh, Itay Ketko, Tsvi Kuflik, Alex M. Bronstein,
- Abstract要約: 本稿では、軍事訓練におけるウェアラブルデータからの活動の事前処理、分析、認識のためのエンドツーエンドフレームワークを提案する。
textitGarmin-55スマートウォッチを6ヶ月以上、1500万分以上使用した兵士135人のデータを使っています。
我々のフレームワークは、生理学的にインフォームドされた方法で欠落したデータに対処し、未知の睡眠状態を40.38%から3.66%に減らした。
- 参考スコア(独自算出の注目度): 7.130450173185638
- License:
- Abstract: Musculoskeletal injuries during military training significantly impact readiness, making prevention through activity monitoring crucial. While Human Activity Recognition (HAR) using wearable devices offers promising solutions, it faces challenges in processing continuous data streams and recognizing diverse activities without predefined sessions. This paper introduces an end-to-end framework for preprocessing, analyzing, and recognizing activities from wearable data in military training contexts. Using data from 135 soldiers wearing \textit{Garmin--55} smartwatches over six months with over 15 million minutes. We develop a hierarchical deep learning approach that achieves 93.8% accuracy in temporal splits and 83.8% in cross-user evaluation. Our framework addresses missing data through physiologically-informed methods, reducing unknown sleep states from 40.38% to 3.66%. We demonstrate that while longer time windows (45-60 minutes) improve basic state classification, they present trade-offs in detecting fine-grained activities. Additionally, we introduce an intuitive visualization system that enables real-time comparison of individual performance against group metrics across multiple physiological indicators. This approach to activity recognition and performance monitoring provides military trainers with actionable insights for optimizing training programs and preventing injuries.
- Abstract(参考訳): 軍事訓練中の筋肉骨格の損傷は準備に著しく影響を与え、活動監視による予防が重要となる。
ウェアラブルデバイスを使用したヒューマンアクティビティ認識(HAR)は有望なソリューションを提供するが、継続的データストリームの処理や、事前に定義されたセッションなしでさまざまなアクティビティを認識するという課題に直面している。
本稿では、軍事訓練におけるウェアラブルデータからの活動の事前処理、分析、認識のためのエンドツーエンドフレームワークを提案する。
のスマートウォッチを身に着けている135人の兵士のデータを6ヶ月で1500万分以上使ってみた。
本研究では,時間分割で93.8%,ユーザ間評価で83.8%の精度を実現する階層型ディープラーニング手法を開発した。
我々のフレームワークは、生理学的にインフォームドされた方法で欠落したデータに対処し、未知の睡眠状態を40.38%から3.66%に減らした。
より長い時間窓(45~60分)で基本状態の分類が向上する一方で、細粒度の活動を検出するためのトレードオフが示される。
さらに,複数の生理指標をまたいだグループメトリクスに対して,個々のパフォーマンスをリアルタイムに比較できる直感的な可視化システムを導入する。
行動認識とパフォーマンスモニタリングに対するこのアプローチは、訓練プログラムを最適化し、怪我を予防するための実用的な洞察を提供する。
関連論文リスト
- Intelligent Repetition Counting for Unseen Exercises: A Few-Shot Learning Approach with Sensor Signals [0.4998632546280975]
本研究は、IMU信号の解析により、運動繰り返しを自動カウントする方法を開発した。
本稿では,深度測定に基づく数点学習手法を用いた反復カウント手法を提案する。
86.8%の確率で、28回の異なるエクササイズで1セットに10回以上の繰り返しを正確に数えることが可能である。
論文 参考訳(メタデータ) (2024-10-01T05:04:40Z) - Deep Reinforcement Learning Empowered Activity-Aware Dynamic Health
Monitoring Systems [69.41229290253605]
既存のモニタリングアプローチは、医療機器が複数の健康指標を同時に追跡するという前提で設計されている。
これは、その範囲内で関連するすべての健康値を報告し、過剰なリソース使用と外部データの収集をもたらす可能性があることを意味します。
最適なモニタリング性能とコスト効率のバランスをとるための動的アクティビティ・アウェアヘルスモニタリング戦略(DActAHM)を提案する。
論文 参考訳(メタデータ) (2024-01-19T16:26:35Z) - A Matter of Annotation: An Empirical Study on In Situ and Self-Recall Activity Annotations from Wearable Sensors [56.554277096170246]
In-the-wildデータ収集に焦点をあてたユーザスタディにおいて,一般的な4つのアノテーション手法の評価と対比を行う実験的検討を行った。
実際の記録プロセス中に参加者がアノテートするユーザ主導のin situアノテーションと、各日の終わりに参加者が振り返ってアノテートするリコールメソッドの両方に対して、参加者は自身のアクティビティクラスと対応するラベルを選択できる柔軟性を持っていた。
論文 参考訳(メタデータ) (2023-05-15T16:02:56Z) - Enabling hand gesture customization on wrist-worn devices [28.583516259577486]
既存のジェスチャーセットの性能を劣化させることなく、ユーザから最小限のサンプルを必要とするジェスチャーカスタマイズのためのフレームワークを提案する。
われわれのアプローチは、ユーザーが既存のジェスチャーに縛られない未来への道を切り拓き、自分の好みや能力に合わせた新しいジェスチャーを創造的に導入することを可能にする。
論文 参考訳(メタデータ) (2022-03-29T05:12:32Z) - Self-supervised Pretraining with Classification Labels for Temporal
Activity Detection [54.366236719520565]
時間的アクティビティ検出は、1フレーム当たりのアクティビティクラスを予測することを目的としている。
検出に必要なフレームレベルのアノテーションが高価なため、検出データセットの規模は限られている。
本研究では,分類ラベルを利用した自己教師付き事前学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-26T18:59:28Z) - Crop-Transform-Paste: Self-Supervised Learning for Visual Tracking [137.26381337333552]
本研究では,十分なトレーニングデータを合成できるCrop-Transform-Paste演算を開発した。
オブジェクトの状態はすべての合成データで知られているので、既存のディープトラッカーは人間のアノテーションなしで日常的に訓練することができる。
論文 参考訳(メタデータ) (2021-06-21T07:40:34Z) - Eye Know You: Metric Learning for End-to-end Biometric Authentication
Using Eye Movements from a Longitudinal Dataset [4.511561231517167]
本稿では,ユーザの眼球運動を認証するための畳み込みニューラルネットワークを提案する。
ネットワークは、確立されたメトリック学習損失関数、多相性損失で訓練される。
目の動きは、3年後のテンプレートの老化に対して非常に弾力性があります。
論文 参考訳(メタデータ) (2021-04-21T12:21:28Z) - Physical Activity Recognition Based on a Parallel Approach for an
Ensemble of Machine Learning and Deep Learning Classifiers [0.0]
モノのインターネット(IOT)に組み込まれたウェアラブルセンサーデバイスによる人間の活動認識(HAR)は、リモートヘルス監視と緊急通知に重要な役割を果たします。
本研究では、医療に適用可能な意思決定精度と実行速度の人間活動認識手法について検討する。
論文 参考訳(メタデータ) (2021-03-02T16:50:52Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - A Framework for Behavioral Biometric Authentication using Deep Metric
Learning on Mobile Devices [17.905483523678964]
バッテリー駆動のモバイルデバイス上でのトレーニングを取り入れた新しいフレームワークを提案する。これにより、プライベートデータはデバイスを離れることなく、実行時の動作パターンに柔軟に適応するようにトレーニングをスケジュールすることができる。
実験では、3つの公開データセットで95%以上の認証精度が示され、データが少ないマルチクラスの分類では15%の精度が向上し、それぞれ99%と90%が成功したブルートフォース攻撃とサイドチャネル攻撃に対する堅牢性が向上した。
その結果,トレーニングはビデオ視聴よりも低エネルギーを消費し,ゲームよりも若干高いエネルギーを消費していることがわかった。
論文 参考訳(メタデータ) (2020-05-26T17:56:20Z) - ZSTAD: Zero-Shot Temporal Activity Detection [107.63759089583382]
本研究では,ゼロショット時間的活動検出(ZSTAD)と呼ばれる新たなタスク設定を提案する。
このソリューションのアーキテクチャとして,R-C3Dに基づくエンドツーエンドのディープネットワークを設計する。
THUMOS14とCharadesデータセットの両方の実験は、目に見えない活動を検出するという点で有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-03-12T02:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。