論文の概要: A Deep Learning Method for Complex Human Activity Recognition Using
Virtual Wearable Sensors
- arxiv url: http://arxiv.org/abs/2003.01874v2
- Date: Fri, 6 Mar 2020 01:18:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 13:07:50.496029
- Title: A Deep Learning Method for Complex Human Activity Recognition Using
Virtual Wearable Sensors
- Title(参考訳): 仮想ウェアラブルセンサを用いた複雑な人間行動認識のための深層学習法
- Authors: Fanyi Xiao, Ling Pei, Lei Chu, Danping Zou, Wenxian Yu, Yifan Zhu, Tao
Li
- Abstract要約: センサに基づくヒューマンアクティビティ認識(HAR)は、現在、複数のアプリケーション領域で研究ホットスポットとなっている。
本研究では,実シーンにおける複雑なHARの深層学習に基づく新しい手法を提案する。
提案手法は驚くほど数イテレーションで収束し、実際のIMUデータセット上で91.15%の精度が得られる。
- 参考スコア(独自算出の注目度): 22.923108537119685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sensor-based human activity recognition (HAR) is now a research hotspot in
multiple application areas. With the rise of smart wearable devices equipped
with inertial measurement units (IMUs), researchers begin to utilize IMU data
for HAR. By employing machine learning algorithms, early IMU-based research for
HAR can achieve accurate classification results on traditional classical HAR
datasets, containing only simple and repetitive daily activities. However,
these datasets rarely display a rich diversity of information in real-scene. In
this paper, we propose a novel method based on deep learning for complex HAR in
the real-scene. Specially, in the off-line training stage, the AMASS dataset,
containing abundant human poses and virtual IMU data, is innovatively adopted
for enhancing the variety and diversity. Moreover, a deep convolutional neural
network with an unsupervised penalty is proposed to automatically extract the
features of AMASS and improve the robustness. In the on-line testing stage, by
leveraging advantages of the transfer learning, we obtain the final result by
fine-tuning the partial neural network (optimizing the parameters in the
fully-connected layers) using the real IMU data. The experimental results show
that the proposed method can surprisingly converge in a few iterations and
achieve an accuracy of 91.15% on a real IMU dataset, demonstrating the
efficiency and effectiveness of the proposed method.
- Abstract(参考訳): センサに基づくヒューマンアクティビティ認識(HAR)は、現在、複数のアプリケーション領域で研究ホットスポットとなっている。
慣性測定ユニット(IMU)を備えたスマートウェアラブルデバイスが台頭し、研究者はIMUデータをHARに利用し始めた。
機械学習アルゴリズムを用いることで、初期のIMUベースのHARの研究は、従来のHARデータセットの正確な分類結果が得られる。
しかし、これらのデータセットはリアルタイムで豊富な情報を表示することは滅多にない。
本稿では,実シーンにおける複雑なHARの深層学習に基づく新しい手法を提案する。
特に、オフライントレーニング段階では、豊富な人間のポーズと仮想IMUデータを含むAMASSデータセットが、多様性と多様性を高めるために革新的に採用されている。
さらに,教師なしペナルティを伴う深層畳み込みニューラルネットワークを提案し,amassの特徴を自動的に抽出し,ロバスト性を改善する。
オンラインテスト段階では、転送学習の利点を利用して、実際のIMUデータを用いて部分的ニューラルネットワーク(全接続層におけるパラメータの最適化)を微調整して最終的な結果を得る。
実験の結果,提案手法は数回の反復で驚くほど収束し,実際のIMUデータセット上で91.15%の精度を実現し,提案手法の有効性と有効性を示した。
関連論文リスト
- Enhancing Inertial Hand based HAR through Joint Representation of Language, Pose and Synthetic IMUs [9.570759294459629]
我々は,制限データの問題に対処するために,新しいマルチモーダル,マルチタスク,コントラストベースのフレームワークアプローチであるMulti$3$Netを提案する。
本手法はウェアラブルHAR性能の向上,特に微妙な活動の認識を目的としている。
論文 参考訳(メタデータ) (2024-06-03T13:28:42Z) - Sensor Data Augmentation from Skeleton Pose Sequences for Improving Human Activity Recognition [5.669438716143601]
HAR(Human Activity Recognition)は、ディープラーニングの普及に大きく貢献していない。
本稿では,センサをベースとしたウェアラブル型HARに対して,ポーズ・ツー・センサ・ネットワークモデルを導入することにより,新たなアプローチを提案する。
コントリビューションには、同時トレーニングの統合、直接ポーズ・ツー・センサ生成、MM-Fitデータセットの包括的な評価が含まれる。
論文 参考訳(メタデータ) (2024-04-25T10:13:18Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - Convolutional Monge Mapping Normalization for learning on sleep data [63.22081662149488]
我々は、CMMN(Convolutional Monge Mapping Normalization)と呼ばれる新しい手法を提案する。
CMMNは、そのパワースペクトル密度(PSD)をトレーニングデータに基づいて推定されるワッサーシュタインバリセンタに適応させるために、信号をフィルタリングする。
睡眠脳波データに関する数値実験により、CMMNはニューラルネットワークアーキテクチャから独立して、顕著で一貫したパフォーマンス向上をもたらすことが示された。
論文 参考訳(メタデータ) (2023-05-30T08:24:01Z) - UMSNet: An Universal Multi-sensor Network for Human Activity Recognition [10.952666953066542]
本稿では,人間行動認識のためのユニバーサルマルチセンサネットワーク(UMSNet)を提案する。
特に,新しい軽量センサ残差ブロック(LSRブロック)を提案する。
我々のフレームワークは明確な構造を持ち、様々な種類のマルチモーダル時系列分類タスクに直接適用することができる。
論文 参考訳(メタデータ) (2022-05-24T03:29:54Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - MARS: Mixed Virtual and Real Wearable Sensors for Human Activity
Recognition with Multi-Domain Deep Learning Model [21.971345137218886]
仮想IMUに基づく大規模データベースの構築を提案し,その上で,3つの技術部分からなる多分野ディープラーニングフレームワークを導入することにより,技術的問題に対処する。
まず,混成畳み込みニューラルネットワーク(CNN)を用いたノイズの多いIMUデータから,単一フレームの人間活動について半教師付き形式で学習することを提案する。
第2の部分は、不確実性を認識した一貫性の原則に従って抽出されたデータ特徴を融合する。
転送学習は、最近リリースされたArchive of Motion Capture as Surface Shapes (AMASS)データセットに基づいて、最後の部分で実行される。
論文 参考訳(メタデータ) (2020-09-20T10:35:14Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Deep Learning based Pedestrian Inertial Navigation: Methods, Dataset and
On-Device Inference [49.88536971774444]
慣性測定ユニット(IMU)は小型で安価でエネルギー効率が良く、スマートデバイスや移動ロボットに広く使われている。
正確で信頼性の高い歩行者ナビゲーションをサポートするために慣性データをエクスプロイトすることは、新しいインターネット・オブ・シングス・アプリケーションやサービスにとって重要なコンポーネントである。
我々は、深層学習に基づく慣性ナビゲーション研究のための最初の公開データセットであるOxIOD(OxIOD)を提示、リリースする。
論文 参考訳(メタデータ) (2020-01-13T04:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。