論文の概要: Tutorial on Deep Learning for Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2110.06663v1
- Date: Wed, 13 Oct 2021 12:01:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 15:49:16.686476
- Title: Tutorial on Deep Learning for Human Activity Recognition
- Title(参考訳): 人間の活動認識のための深層学習のチュートリアル
- Authors: Marius Bock, Alexander Hoelzemann, Michael Moeller, Kristof Van
Laerhoven
- Abstract要約: このチュートリアルは2021年のACM International Symposium on Wearable Computers (ISWC'21)で初めて開催された。
これは、人間のアクティビティを深く学習する上で、データパイプラインにおける最も重要なステップの、ハンズオンでインタラクティブなウォークスルーを提供する。
- 参考スコア(独自算出の注目度): 70.94062293989832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Activity recognition systems that are capable of estimating human activities
from wearable inertial sensors have come a long way in the past decades. Not
only have state-of-the-art methods moved away from feature engineering and have
fully adopted end-to-end deep learning approaches, best practices for setting
up experiments, preparing datasets, and validating activity recognition
approaches have similarly evolved. This tutorial was first held at the 2021 ACM
International Symposium on Wearable Computers (ISWC'21) and International Joint
Conference on Pervasive and Ubiquitous Computing (UbiComp'21). The tutorial,
after a short introduction in the research field of activity recognition,
provides a hands-on and interactive walk-through of the most important steps in
the data pipeline for the deep learning of human activities. All presentation
slides shown during the tutorial, which also contain links to all code
exercises, as well as the link of the GitHub page of the tutorial can be found
on: https://mariusbock.github.io/dl-for-har
- Abstract(参考訳): ウェアラブル慣性センサーから人間のアクティビティを推定できるアクティビティ認識システムは、過去数十年で長い道のりを歩んできた。
最先端の手法が機能エンジニアリングから離れ、エンドツーエンドのディープラーニングアプローチが完全に採用されているだけでなく、実験のセットアップやデータセットの作成、アクティビティ認識アプローチの検証も同じように進化しています。
このチュートリアルは2021年のACM International Symposium on Wearable Computers (ISWC'21)とInternational Joint Conference on Pervasive and Ubiquitous Computing (UbiComp'21)で初めて開催された。
チュートリアルは、アクティビティ認識の研究分野の短い紹介の後、人間のアクティビティのディープラーニングのためのデータパイプラインにおける最も重要なステップのハンズオンとインタラクティブなウォークスルーを提供する。
チュートリアル中に表示されるすべてのプレゼンテーションスライドには、すべてのコードエクササイズへのリンクや、チュートリアルのgithubページへのリンクが含まれている。 https://mariusbock.github.io/dl-for-har.com を参照してください。
関連論文リスト
- Any-point Trajectory Modeling for Policy Learning [67.45990463611942]
我々は、ビデオフレーム内の任意の点の将来の軌跡を予測するために、ATM(Any-point Trajectory Modeling)を導入する。
ATMは、強力なビデオ事前トレーニングベースラインを平均80%上回っている。
本研究では,人間の動画やビデオからの操作スキルを,異なるロボット形態から効果的に伝達する学習方法を示す。
論文 参考訳(メタデータ) (2023-12-28T23:34:43Z) - Early Action Recognition with Action Prototypes [62.826125870298306]
本稿では,各クラスに対するフルアクションのプロトタイプ表現を学習する新しいモデルを提案する。
映像を短いクリップに分解し、視覚エンコーダがそれぞれのクリップから特徴を独立して抽出する。
その後、デコーダは、最終クラスの予測のために、すべてのクリップからオンラインのファッション機能として集約される。
論文 参考訳(メタデータ) (2023-12-11T18:31:13Z) - SelfAct: Personalized Activity Recognition based on Self-Supervised and
Active Learning [0.688204255655161]
SelfActは、ウェアラブルおよびモバイルデバイス上でのヒューマンアクティビティ認識(HAR)のための新しいフレームワークである。
自己教師とアクティブな学習を組み合わせることで、アクティビティ実行のイントラやインターバリアビリティといった問題を軽減します。
公開されている2つのHARデータセットに関する実験は、SelfActが完全に教師付きアプローチのそれに近い、あるいはそれ以上の結果を得ることを示した。
論文 参考訳(メタデータ) (2023-04-19T09:39:11Z) - An Empirical Study and Analysis of Learning Generalizable Manipulation
Skill in the SAPIEN Simulator [12.677245428522834]
本稿では,SAPIEN ManiSkill Challenge 2021のノーインタラクショントラックについて概説する。
このアプローチは、主に2つのステップからなるエンドツーエンドのパイプラインに従っています。
我々は,ロボットシミュレータの動作スコアを,広帯域のトランスフォーマーネットワークを介して予測するために,これらの特徴を取り入れた。
論文 参考訳(メタデータ) (2022-08-31T05:45:55Z) - Classifying Human Activities using Machine Learning and Deep Learning
Techniques [0.0]
HAR(Human Activity Recognition)は、人間の行動を認識する機械。
HARの課題は、与えられたデータに基づいて人間の活動を分離することの難しさを克服することである。
Long Short-Term Memory(LSTM)、Bi-Directional LS分類器、Recurrent Neural Network(RNN)、Gated Recurrent Unit(GRU)といったディープラーニング技術がトレーニングされている。
実験の結果、機械学習における線形サポートベクトルとディープラーニングにおけるGated Recurrent Unitが、人間の活動認識により良い精度を提供することがわかった。
論文 参考訳(メタデータ) (2022-05-19T05:20:04Z) - An Empirical Study of End-to-End Temporal Action Detection [82.64373812690127]
時間的行動検出(TAD)はビデオ理解において重要な課題である。
エンド・ツー・エンドの学習よりも、既存のほとんどの手法では、ヘッドオンリーの学習パラダイムを採用しています。
頭のみの学習よりもエンド・ツー・エンドの学習の利点を検証し、最大11%のパフォーマンス向上を観察する。
論文 参考訳(メタデータ) (2022-04-06T16:46:30Z) - Continual Learning from Demonstration of Robotics Skills [5.573543601558405]
ロボットに動きのスキルを教える方法は、一度に1つのスキルのトレーニングに集中する。
本稿では,ハイパーネットとニューラル常微分方程式解法を用いた実験から連続学習へのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-14T16:26:52Z) - Self-supervised Human Activity Recognition by Learning to Predict
Cross-Dimensional Motion [16.457778420360537]
スマートフォン加速度計データを用いた人間行動認識のための自己教師型学習法を提案する。
まず、ラベルなし入力信号の表現は、深層畳み込みニューラルネットワークを訓練して加速度計値のセグメントを予測することによって学習される。
このタスクでは、凍結ネットワークの端に多数の完全に接続されたレイヤを追加し、ラベル付き加速度センサ信号で付加されたレイヤをトレーニングし、人間の活動の分類を学ぶ。
論文 参考訳(メタデータ) (2020-10-21T02:14:31Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - On the interaction between supervision and self-play in emergent
communication [82.290338507106]
本研究は,2つのカテゴリの学習信号と,サンプル効率の向上を目標とする学習信号の関係について検討する。
人間のデータに基づく教師付き学習による初等訓練エージェントが,自己演奏が会話に優れていることが判明した。
論文 参考訳(メタデータ) (2020-02-04T02:35:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。