論文の概要: HAR-GCNN: Deep Graph CNNs for Human Activity Recognition From Highly
Unlabeled Mobile Sensor Data
- arxiv url: http://arxiv.org/abs/2203.03087v1
- Date: Mon, 7 Mar 2022 01:23:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 03:27:22.867711
- Title: HAR-GCNN: Deep Graph CNNs for Human Activity Recognition From Highly
Unlabeled Mobile Sensor Data
- Title(参考訳): HAR-GCNN:高度にラベル付けされたモバイルセンサデータから人間の活動認識のためのディープグラフCNN
- Authors: Abduallah Mohamed, Fernando Lejarza, Stephanie Cahail, Christian
Claudel, Edison Thomaz
- Abstract要約: 正確な活動ラベルを含むバランスのとれたデータセットを取得するには、人間が正しく注釈を付け、リアルタイムで被験者の通常の活動に干渉する必要がある。
本研究では,HAR-GCCNモデルを提案する。HAR-GCCNは,時系列に隣接したセンサ測定の相関を利用して,不特定活動の正確なラベルを予測する。
Har-GCCNは、これまで使用されていたベースライン手法と比較して優れたパフォーマンスを示し、分類精度を25%改善し、異なるデータセットで最大68%向上した。
- 参考スコア(独自算出の注目度): 61.79595926825511
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The problem of human activity recognition from mobile sensor data applies to
multiple domains, such as health monitoring, personal fitness, daily life
logging, and senior care. A critical challenge for training human activity
recognition models is data quality. Acquiring balanced datasets containing
accurate activity labels requires humans to correctly annotate and potentially
interfere with the subjects' normal activities in real-time. Despite the
likelihood of incorrect annotation or lack thereof, there is often an inherent
chronology to human behavior. For example, we take a shower after we exercise.
This implicit chronology can be used to learn unknown labels and classify
future activities. In this work, we propose HAR-GCCN, a deep graph CNN model
that leverages the correlation between chronologically adjacent sensor
measurements to predict the correct labels for unclassified activities that
have at least one activity label. We propose a new training strategy enforcing
that the model predicts the missing activity labels by leveraging the known
ones. HAR-GCCN shows superior performance relative to previously used baseline
methods, improving classification accuracy by about 25% and up to 68% on
different datasets. Code is available at
\url{https://github.com/abduallahmohamed/HAR-GCNN}.
- Abstract(参考訳): モバイルセンサデータからの人間の活動認識の問題は、健康モニタリング、個人のフィットネス、日常生活記録、高齢者ケアなど、複数の領域に適用される。
ヒューマンアクティビティ認識モデルのトレーニングにおける重要な課題は、データ品質である。
正確な活動ラベルを含むバランスのとれたデータセットを取得するには、人間が正しく注釈を付け、リアルタイムで被験者の通常の活動に干渉する必要がある。
誤った注釈やその欠如の可能性にもかかわらず、しばしば人間の行動に固有の年表が存在する。
例えば、運動後にシャワーを浴びます。
この暗黙の年代学は未知のラベルを学習し、将来の活動の分類に利用できる。
本研究では,時系列に隣接したセンサ計測値間の相関を利用して,少なくとも1つのアクティビティラベルを有する未分類アクティビティの正確なラベルを予測するディープグラフcnnモデルであるhar-gccnを提案する。
そこで本研究では,モデルが未知の活動ラベルを予測するための新たなトレーニング戦略を提案する。
HAR-GCCNは、これまで使用されていたベースライン手法と比較して優れた性能を示し、分類精度を25%改善し、異なるデータセットで最大68%向上した。
コードは \url{https://github.com/abduallahmohamed/har-gcnn} で入手できる。
関連論文リスト
- Dataset Bias in Human Activity Recognition [57.91018542715725]
このコントリビューションは、トレーニングデータを統計的にキュレートし、人間の身体的特性がHARのパフォーマンスにどの程度影響するかを評価する。
時系列HARのセンサ,アクティビティ,記録の異なる2つのHARデータセット上で,最先端の畳み込みニューラルネットワークの性能を評価する。
論文 参考訳(メタデータ) (2023-01-19T12:33:50Z) - Domain Adaptation Under Behavioral and Temporal Shifts for Natural Time
Series Mobile Activity Recognition [31.43183992755392]
既存のデータセットは典型的にはスクリプト化された動きで構成されている。
我々の長期的な目標は、自然環境下でのモバイル活動認識を行うことです。
ヒトの行動に大きな変化があるため、2つの異なる年齢グループから多くの参加者からデータを収集します。
論文 参考訳(メタデータ) (2022-07-10T02:48:34Z) - Beyond the Gates of Euclidean Space: Temporal-Discrimination-Fusions and
Attention-based Graph Neural Network for Human Activity Recognition [5.600003119721707]
ウェアラブルデバイスによるヒューマンアクティビティ認識(HAR)は、フィットネストラッキング、ウェルネススクリーニング、生活支援など多くの応用により、大きな関心を集めている。
従来のディープラーニング(DL)は、HARドメインのアートパフォーマンスの状態を規定している。
提案手法はグラフニューラルネットワーク(GNN)を用いて,入力表現を構造化し,サンプル間の関係性を利用する手法である。
論文 参考訳(メタデータ) (2022-06-10T03:04:23Z) - Human Activity Recognition on wrist-worn accelerometers using
self-supervised neural networks [0.0]
日常生活活動の指標 (ADL) は, 健康の指標として重要であるが, 生体内測定は困難である。
本稿では,加速度センサデータの頑健な表現をデバイスや対象に対して一般化するための自己教師付き学習パラダイムを提案する。
また,連続した実生活データに対して,有意な活動のセグメントを同定し,HARの精度を高めるセグメンテーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-22T23:35:20Z) - Self-supervised Pretraining with Classification Labels for Temporal
Activity Detection [54.366236719520565]
時間的アクティビティ検出は、1フレーム当たりのアクティビティクラスを予測することを目的としている。
検出に必要なフレームレベルのアノテーションが高価なため、検出データセットの規模は限られている。
本研究では,分類ラベルを利用した自己教師付き事前学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-26T18:59:28Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z) - HHAR-net: Hierarchical Human Activity Recognition using Neural Networks [2.4530909757679633]
本研究では,人間の行動を認識するためにニューラルネットワークを用いた階層型分類を構築することを目的とする。
このデータセットは、野生で収集され、スマートフォンやスマートウォッチからのデータを含んでいる。
論文 参考訳(メタデータ) (2020-10-28T17:06:42Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z) - Don't Wait, Just Weight: Improving Unsupervised Representations by
Learning Goal-Driven Instance Weights [92.16372657233394]
自己教師付き学習技術は、役に立たないデータから有用な表現を学習することで、パフォーマンスを向上させることができる。
ベイジアンのインスタンスの重み付けを学習することで、下流の分類精度を向上させることができることを示す。
本研究では,STL-10 と Visual Decathlon の自己教師型回転予測タスクを用いて,BetaDataWeighter の評価を行った。
論文 参考訳(メタデータ) (2020-06-22T15:59:32Z) - Sequential Weakly Labeled Multi-Activity Localization and Recognition on
Wearable Sensors using Recurrent Attention Networks [13.64024154785943]
本稿では,逐次的にラベル付けされたマルチアクティビティ認識と位置情報タスクを処理するために,RAN(Recurrent attention network)を提案する。
我々のRANモデルは、粗粒度シーケンシャルな弱いラベルからマルチアクティビティータイプを同時に推測することができる。
手動ラベリングの負担を大幅に軽減する。
論文 参考訳(メタデータ) (2020-04-13T04:57:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。