論文の概要: Tutorial on Deep Learning for Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2110.06663v1
- Date: Wed, 13 Oct 2021 12:01:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 15:49:16.686476
- Title: Tutorial on Deep Learning for Human Activity Recognition
- Title(参考訳): 人間の活動認識のための深層学習のチュートリアル
- Authors: Marius Bock, Alexander Hoelzemann, Michael Moeller, Kristof Van
Laerhoven
- Abstract要約: このチュートリアルは2021年のACM International Symposium on Wearable Computers (ISWC'21)で初めて開催された。
これは、人間のアクティビティを深く学習する上で、データパイプラインにおける最も重要なステップの、ハンズオンでインタラクティブなウォークスルーを提供する。
- 参考スコア(独自算出の注目度): 70.94062293989832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Activity recognition systems that are capable of estimating human activities
from wearable inertial sensors have come a long way in the past decades. Not
only have state-of-the-art methods moved away from feature engineering and have
fully adopted end-to-end deep learning approaches, best practices for setting
up experiments, preparing datasets, and validating activity recognition
approaches have similarly evolved. This tutorial was first held at the 2021 ACM
International Symposium on Wearable Computers (ISWC'21) and International Joint
Conference on Pervasive and Ubiquitous Computing (UbiComp'21). The tutorial,
after a short introduction in the research field of activity recognition,
provides a hands-on and interactive walk-through of the most important steps in
the data pipeline for the deep learning of human activities. All presentation
slides shown during the tutorial, which also contain links to all code
exercises, as well as the link of the GitHub page of the tutorial can be found
on: https://mariusbock.github.io/dl-for-har
- Abstract(参考訳): ウェアラブル慣性センサーから人間のアクティビティを推定できるアクティビティ認識システムは、過去数十年で長い道のりを歩んできた。
最先端の手法が機能エンジニアリングから離れ、エンドツーエンドのディープラーニングアプローチが完全に採用されているだけでなく、実験のセットアップやデータセットの作成、アクティビティ認識アプローチの検証も同じように進化しています。
このチュートリアルは2021年のACM International Symposium on Wearable Computers (ISWC'21)とInternational Joint Conference on Pervasive and Ubiquitous Computing (UbiComp'21)で初めて開催された。
チュートリアルは、アクティビティ認識の研究分野の短い紹介の後、人間のアクティビティのディープラーニングのためのデータパイプラインにおける最も重要なステップのハンズオンとインタラクティブなウォークスルーを提供する。
チュートリアル中に表示されるすべてのプレゼンテーションスライドには、すべてのコードエクササイズへのリンクや、チュートリアルのgithubページへのリンクが含まれている。 https://mariusbock.github.io/dl-for-har.com を参照してください。
関連論文リスト
- Hands-On Tutorial: Labeling with LLM and Human-in-the-Loop [7.925650087629884]
このチュートリアルは、研究と業界の両方のバックグラウンドを持つNLP実践者向けに設計されている。
それぞれの戦略の基本を提示し、そのメリットと限界を強調し、実生活におけるケーススタディを詳細に議論する。
チュートリアルにはハンズオンワークショップが含まれており、参加者はハイブリッドアノテーションのセットアップを実装する際にガイドされる。
論文 参考訳(メタデータ) (2024-11-07T11:51:14Z) - KOI: Accelerating Online Imitation Learning via Hybrid Key-state Guidance [51.09834120088799]
キーステートガイド付きオンライン模倣(KOI)学習手法について紹介する。
我々は視覚言語モデルを用いて、専門家の軌跡から意味的キー状態を抽出し、「何をすべきか」の目的を示す。
セマンティックキー状態間の間隔内では、動作キー状態の捕捉に光流が使用され、「どうするか」のメカニズムが理解される。
論文 参考訳(メタデータ) (2024-08-06T02:53:55Z) - Exploiting the Semantic Knowledge of Pre-trained Text-Encoders for Continual Learning [70.64617500380287]
継続的な学習は、モデルが学習した知識を維持しながら、新しいデータから学習することを可能にする。
画像のラベル情報で利用できるセマンティック知識は、以前に取得したセマンティッククラスの知識と関連する重要なセマンティック情報を提供する。
テキスト埋め込みを用いて意味的類似性を把握し,タスク内およびタスク間のセマンティックガイダンスの統合を提案する。
論文 参考訳(メタデータ) (2024-08-02T07:51:44Z) - Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - Any-point Trajectory Modeling for Policy Learning [64.23861308947852]
我々は、ビデオフレーム内の任意の点の将来の軌跡を予測するために、ATM(Any-point Trajectory Modeling)を導入する。
ATMは、強力なビデオ事前トレーニングベースラインを平均80%上回っている。
本研究では,人間の動画やビデオからの操作スキルを,異なるロボット形態から効果的に伝達する学習方法を示す。
論文 参考訳(メタデータ) (2023-12-28T23:34:43Z) - An Empirical Study and Analysis of Learning Generalizable Manipulation
Skill in the SAPIEN Simulator [12.677245428522834]
本稿では,SAPIEN ManiSkill Challenge 2021のノーインタラクショントラックについて概説する。
このアプローチは、主に2つのステップからなるエンドツーエンドのパイプラインに従っています。
我々は,ロボットシミュレータの動作スコアを,広帯域のトランスフォーマーネットワークを介して予測するために,これらの特徴を取り入れた。
論文 参考訳(メタデータ) (2022-08-31T05:45:55Z) - Continual Learning from Demonstration of Robotics Skills [5.573543601558405]
ロボットに動きのスキルを教える方法は、一度に1つのスキルのトレーニングに集中する。
本稿では,ハイパーネットとニューラル常微分方程式解法を用いた実験から連続学習へのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-14T16:26:52Z) - Self-supervised Human Activity Recognition by Learning to Predict
Cross-Dimensional Motion [16.457778420360537]
スマートフォン加速度計データを用いた人間行動認識のための自己教師型学習法を提案する。
まず、ラベルなし入力信号の表現は、深層畳み込みニューラルネットワークを訓練して加速度計値のセグメントを予測することによって学習される。
このタスクでは、凍結ネットワークの端に多数の完全に接続されたレイヤを追加し、ラベル付き加速度センサ信号で付加されたレイヤをトレーニングし、人間の活動の分類を学ぶ。
論文 参考訳(メタデータ) (2020-10-21T02:14:31Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。