論文の概要: HHAR-net: Hierarchical Human Activity Recognition using Neural Networks
- arxiv url: http://arxiv.org/abs/2010.16052v2
- Date: Tue, 10 Nov 2020 22:52:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 04:37:32.218088
- Title: HHAR-net: Hierarchical Human Activity Recognition using Neural Networks
- Title(参考訳): HHAR-net:ニューラルネットワークを用いた階層的人間活動認識
- Authors: Mehrdad Fazli, Kamran Kowsari, Erfaneh Gharavi, Laura Barnes, Afsaneh
Doryab
- Abstract要約: 本研究では,人間の行動を認識するためにニューラルネットワークを用いた階層型分類を構築することを目的とする。
このデータセットは、野生で収集され、スマートフォンやスマートウォッチからのデータを含んでいる。
- 参考スコア(独自算出の注目度): 2.4530909757679633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Activity recognition using built-in sensors in smart and wearable devices
provides great opportunities to understand and detect human behavior in the
wild and gives a more holistic view of individuals' health and well being.
Numerous computational methods have been applied to sensor streams to recognize
different daily activities. However, most methods are unable to capture
different layers of activities concealed in human behavior. Also, the
performance of the models starts to decrease with increasing the number of
activities. This research aims at building a hierarchical classification with
Neural Networks to recognize human activities based on different levels of
abstraction. We evaluate our model on the Extrasensory dataset; a dataset
collected in the wild and containing data from smartphones and smartwatches. We
use a two-level hierarchy with a total of six mutually exclusive labels namely,
"lying down", "sitting", "standing in place", "walking", "running", and
"bicycling" divided into "stationary" and "non-stationary". The results show
that our model can recognize low-level activities (stationary/non-stationary)
with 95.8% accuracy and overall accuracy of 92.8% over six labels. This is 3%
above our best performing baseline.
- Abstract(参考訳): スマートデバイスやウェアラブルデバイスに内蔵されたセンサーを用いたアクティビティ認識は、野生の人間の行動を理解し、検出する絶好の機会となり、個人の健康と健康をより包括的に見ることができます。
センサストリームに多くの計算手法を適用し、異なる日常活動を認識する。
しかし、ほとんどの方法は人間の行動に隠された様々な活動の層を捉えることができない。
また,活動数の増加に伴い,モデルの性能が低下し始める。
本研究では,ニューラルネットワークを用いた階層型分類の構築を目標とし,さまざまな抽象化レベルに基づいて人間の活動を認識する。
スマートフォンやスマートウォッチから収集したデータを含むデータセットであるextrasensory datasetでモデルを評価した。
私たちは、合計で6つの排他的ラベルを持つ2階層階層、すなわち、"lying down"、"sitting"、"standing in place"、"walking"、"running"、"bicycling"を、"stationary"と"non-stationary"に分割して使用しています。
その結果,6ラベルに対して95.8%の精度,92.8%の精度で低レベル活動(静止・非定常)を認識できることがわかった。
これは私たちの最高のパフォーマンスベースラインの3%以上です。
関連論文リスト
- Unsupervised Embedding Learning for Human Activity Recognition Using
Wearable Sensor Data [2.398608007786179]
我々は,人間の活動が密接な位置にある埋め込み空間に投影する,教師なしの手法を提案する。
3つのラベル付きベンチマークデータセットの実験結果は、フレームワークの有効性を示している。
論文 参考訳(メタデータ) (2023-07-21T08:52:47Z) - CHARM: A Hierarchical Deep Learning Model for Classification of Complex
Human Activities Using Motion Sensors [0.9594432031144714]
CHARMは、モーションセンサーを用いた複雑な人間の活動の分類のための階層的なディープラーニングモデルである。
これは、平均精度とF1スコアの点で、最先端のアクティビティ認識のための最先端の教師付き学習アプローチよりも優れています。
ハイレベルなアクティビティラベルのみを使用してトレーニングされた場合、低レベルなユーザアクティビティを学習する能力は、HARタスクの半教師付き学習の道を開く可能性がある。
論文 参考訳(メタデータ) (2022-07-16T01:36:54Z) - Classifying Human Activities using Machine Learning and Deep Learning
Techniques [0.0]
HAR(Human Activity Recognition)は、人間の行動を認識する機械。
HARの課題は、与えられたデータに基づいて人間の活動を分離することの難しさを克服することである。
Long Short-Term Memory(LSTM)、Bi-Directional LS分類器、Recurrent Neural Network(RNN)、Gated Recurrent Unit(GRU)といったディープラーニング技術がトレーニングされている。
実験の結果、機械学習における線形サポートベクトルとディープラーニングにおけるGated Recurrent Unitが、人間の活動認識により良い精度を提供することがわかった。
論文 参考訳(メタデータ) (2022-05-19T05:20:04Z) - HAR-GCNN: Deep Graph CNNs for Human Activity Recognition From Highly
Unlabeled Mobile Sensor Data [61.79595926825511]
正確な活動ラベルを含むバランスのとれたデータセットを取得するには、人間が正しく注釈を付け、リアルタイムで被験者の通常の活動に干渉する必要がある。
本研究では,HAR-GCCNモデルを提案する。HAR-GCCNは,時系列に隣接したセンサ測定の相関を利用して,不特定活動の正確なラベルを予測する。
Har-GCCNは、これまで使用されていたベースライン手法と比較して優れたパフォーマンスを示し、分類精度を25%改善し、異なるデータセットで最大68%向上した。
論文 参考訳(メタデータ) (2022-03-07T01:23:46Z) - HAKE: A Knowledge Engine Foundation for Human Activity Understanding [65.24064718649046]
人間の活動理解は人工知能に広く興味を持ち、医療や行動分析といった多様な応用にまたがっている。
本稿では,この課題を2段階にまとめた新しいパラダイムを提案する。まず,原子活動プリミティブを対象とする中間空間に画素をマッピングし,解釈可能な論理規則で検出されたプリミティブをプログラムして意味論を推論する。
我々のフレームワークであるHAKE(Human Activity Knowledge Engine)は、挑戦的なベンチマークよりも優れた一般化能力と性能を示す。
論文 参考訳(メタデータ) (2022-02-14T16:38:31Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Human Activity Recognition using Attribute-Based Neural Networks and
Context Information [61.67246055629366]
手作業におけるウェアラブルセンサデータから人間の活動認識(HAR)を考察する。
我々は、コンテキスト情報をディープニューラルネットワークベースのHARシステムに体系的に組み込む方法を示す。
提案したアーキテクチャは,最先端手法と比較してHAR性能が向上することを示す。
論文 参考訳(メタデータ) (2021-10-28T06:08:25Z) - Self-supervised Human Activity Recognition by Learning to Predict
Cross-Dimensional Motion [16.457778420360537]
スマートフォン加速度計データを用いた人間行動認識のための自己教師型学習法を提案する。
まず、ラベルなし入力信号の表現は、深層畳み込みニューラルネットワークを訓練して加速度計値のセグメントを予測することによって学習される。
このタスクでは、凍結ネットワークの端に多数の完全に接続されたレイヤを追加し、ラベル付き加速度センサ信号で付加されたレイヤをトレーニングし、人間の活動の分類を学ぶ。
論文 参考訳(メタデータ) (2020-10-21T02:14:31Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z) - Sequential Weakly Labeled Multi-Activity Localization and Recognition on
Wearable Sensors using Recurrent Attention Networks [13.64024154785943]
本稿では,逐次的にラベル付けされたマルチアクティビティ認識と位置情報タスクを処理するために,RAN(Recurrent attention network)を提案する。
我々のRANモデルは、粗粒度シーケンシャルな弱いラベルからマルチアクティビティータイプを同時に推測することができる。
手動ラベリングの負担を大幅に軽減する。
論文 参考訳(メタデータ) (2020-04-13T04:57:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。