論文の概要: Energy Expenditure Estimation Through Daily Activity Recognition Using a
Smart-phone
- arxiv url: http://arxiv.org/abs/2009.03681v1
- Date: Tue, 8 Sep 2020 12:26:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 20:54:40.165517
- Title: Energy Expenditure Estimation Through Daily Activity Recognition Using a
Smart-phone
- Title(参考訳): スマートフォンを用いた日々の活動認識によるエネルギー消費の推定
- Authors: Maxime De Bois, Hamdi Amroun, Mehdi Ammi
- Abstract要約: 本稿では,非侵襲的な方法で個人のリアルタイムエネルギー消費を推定する3段階システムを提案する。
まず、ユーザーのスマートフォンのセンサーを使って、彼の身体活動を認識するための決定木モデルを構築します。
そして,検出された身体活動,時間,利用者の速度を用いて,日常生活活動の推測を行う。
- 参考スコア(独自算出の注目度): 1.8047694351309205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a 3-step system that estimates the real-time energy
expenditure of an individual in a non-intrusive way. First, using the user's
smart-phone's sensors, we build a Decision Tree model to recognize his physical
activity (\textit{running}, \textit{standing}, ...). Then, we use the detected
physical activity, the time and the user's speed to infer his daily activity
(\textit{watching TV}, \textit{going to the bathroom}, ...) through the use of
a reinforcement learning environment, the Partially Observable Markov Decision
Process framework. Once the daily activities are recognized, we translate this
information into energy expenditure using the compendium of physical
activities. By successfully detecting 8 physical activities at 90\%, we reached
an overall accuracy of 80\% in recognizing 17 different daily activities. This
result leads us to estimate the energy expenditure of the user with a mean
error of 26\% of the expected estimation.
- Abstract(参考訳): 本稿では,個人の実時間エネルギー消費を非侵入的に見積もる3段階システムを提案する。
まず、ユーザのスマートフォンのセンサーを使用して、彼の身体活動を認識する決定木モデルを構築します(\textit{running}, \textit{standing}, ...)。
次に,検出された身体活動,時刻,利用者の速度を用いて,部分観測可能なマルコフ決定プロセスフレームワークである強化学習環境を用いて,日々の行動(\textit{watching TV}, \textit{going to the bath}, ...)を推測する。
日常活動が認識されれば、この情報を身体活動のコンペジウムを用いてエネルギー支出に変換する。
90\%で8つの身体活動の検出に成功し、17の異なる日常活動を認識する総合的精度80\%に達した。
この結果から, 平均誤差が26 % である場合, 利用者のエネルギー消費量を推定する。
関連論文リスト
- Scaling Wearable Foundation Models [54.93979158708164]
センサ基礎モデルのスケーリング特性を計算,データ,モデルサイズにわたって検討する。
最大4000万時間分の心拍数、心拍変動、心電図活動、加速度計、皮膚温度、および1分間のデータを用いて、私たちはLSMを作成します。
この結果から,LSMのスケーリング法則は,時間とセンサの両面において,計算や外挿などのタスクに対して確立されている。
論文 参考訳(メタデータ) (2024-10-17T15:08:21Z) - Calorie Burn Estimation in Community Parks Through DLICP: A Mathematical Modelling Approach [0.0]
本研究は,ディープラーニング技術,特に顔認識技術を組み合わせた革新的なアプローチであるDLICP(Deep Learning Integrated Community Parks)を紹介する。
DLICPは、顔認識ソフトウェアを備えたカメラを使用して、公園のユーザーを正確に識別し追跡する。
本研究は、インテリジェントなスマートパークシステムの開発に大きく貢献し、消費カロリーのリアルタイム更新とパーソナライズされたフィットネストラッキングを可能にした。
論文 参考訳(メタデータ) (2024-07-06T07:45:05Z) - Human Activity Recognition using Smartphones [0.0]
私たちは、日々の人間の活動を認識し、消費カロリーをリアルタイムで計算するAndroidアプリケーションを作成しました。
これは、メタボリック等価性に基づく式を用いて、リアルタイムな活動認識とカロリー燃焼の計算に使用される。
論文 参考訳(メタデータ) (2024-04-03T17:05:41Z) - A Matter of Annotation: An Empirical Study on In Situ and Self-Recall Activity Annotations from Wearable Sensors [56.554277096170246]
In-the-wildデータ収集に焦点をあてたユーザスタディにおいて,一般的な4つのアノテーション手法の評価と対比を行う実験的検討を行った。
実際の記録プロセス中に参加者がアノテートするユーザ主導のin situアノテーションと、各日の終わりに参加者が振り返ってアノテートするリコールメソッドの両方に対して、参加者は自身のアクティビティクラスと対応するラベルを選択できる柔軟性を持っていた。
論文 参考訳(メタデータ) (2023-05-15T16:02:56Z) - HAR-GCNN: Deep Graph CNNs for Human Activity Recognition From Highly
Unlabeled Mobile Sensor Data [61.79595926825511]
正確な活動ラベルを含むバランスのとれたデータセットを取得するには、人間が正しく注釈を付け、リアルタイムで被験者の通常の活動に干渉する必要がある。
本研究では,HAR-GCCNモデルを提案する。HAR-GCCNは,時系列に隣接したセンサ測定の相関を利用して,不特定活動の正確なラベルを予測する。
Har-GCCNは、これまで使用されていたベースライン手法と比較して優れたパフォーマンスを示し、分類精度を25%改善し、異なるデータセットで最大68%向上した。
論文 参考訳(メタデータ) (2022-03-07T01:23:46Z) - HAKE: A Knowledge Engine Foundation for Human Activity Understanding [65.24064718649046]
人間の活動理解は人工知能に広く興味を持ち、医療や行動分析といった多様な応用にまたがっている。
本稿では,この課題を2段階にまとめた新しいパラダイムを提案する。まず,原子活動プリミティブを対象とする中間空間に画素をマッピングし,解釈可能な論理規則で検出されたプリミティブをプログラムして意味論を推論する。
我々のフレームワークであるHAKE(Human Activity Knowledge Engine)は、挑戦的なベンチマークよりも優れた一般化能力と性能を示す。
論文 参考訳(メタデータ) (2022-02-14T16:38:31Z) - Physical Activity Recognition by Utilising Smartphone Sensor Signals [0.0]
本研究では,現代のスマートフォンでジャイロスコープと加速度センサによって記録された計6つの活動に対して,60人の被験者から2日間にわたる人的活動データを収集した。
提案手法は,4つの活動の識別において,98%の分類精度を達成した。
論文 参考訳(メタデータ) (2022-01-20T09:58:52Z) - Energy Drain of the Object Detection Processing Pipeline for Mobile
Devices: Analysis and Implications [77.00418462388525]
本稿では、移動体拡張現実(AR)クライアントのエネルギー消費と、畳み込みニューラルネットワーク(CNN)に基づく物体検出を行う際の検出遅延について、初めて詳細な実験を行った。
我々は,移動体ARクライアントのエネルギー分析を精査し,CNNによる物体検出を行う際のエネルギー消費に関するいくつかの興味深い視点を明らかにした。
論文 参考訳(メタデータ) (2020-11-26T00:32:07Z) - Deep CHORES: Estimating Hallmark Measures of Physical Activity Using
Deep Learning [0.20999222360659603]
手首の加速度計の人気が高まる中、PA型を認識し、寿命にわたってエネルギー消費(EE)を推定するための厳密な評価が必要である。
時系列データから空間的・時間的表現を抽出する深層学習ネットワークを構築し,PA型認識とEE推定に利用した。
論文 参考訳(メタデータ) (2020-07-26T12:15:50Z) - CNN-based Speed Detection Algorithm for Walking and Running using
Wrist-worn Wearable Sensors [1.6708670748115966]
本稿では,手首輪装置の加速度計とセンサデータを利用して,高精度な速度検出を行う畳み込みニューラルネットワークに基づくアルゴリズムの設計,実装,評価を行う。
我々の速度検出アルゴリズムは、それぞれ70~15ドルと1対1のクロスバリデーション評価戦略を用いて、MAPE(Mean Absolute Error Percentage)の4.2%と9.8%の値を達成した。
論文 参考訳(メタデータ) (2020-06-03T15:53:46Z) - ZSTAD: Zero-Shot Temporal Activity Detection [107.63759089583382]
本研究では,ゼロショット時間的活動検出(ZSTAD)と呼ばれる新たなタスク設定を提案する。
このソリューションのアーキテクチャとして,R-C3Dに基づくエンドツーエンドのディープネットワークを設計する。
THUMOS14とCharadesデータセットの両方の実験は、目に見えない活動を検出するという点で有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-03-12T02:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。