論文の概要: Video2IMU: Realistic IMU features and signals from videos
- arxiv url: http://arxiv.org/abs/2202.06547v1
- Date: Mon, 14 Feb 2022 08:37:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 17:20:41.270047
- Title: Video2IMU: Realistic IMU features and signals from videos
- Title(参考訳): Video2IMU:リアルなIMU機能とビデオからの信号
- Authors: Arttu L\"ams\"a, Jaakko Tervonen, Jussi Liikka, Constantino \'Alvarez
Casado, Miguel Bordallo L\'opez
- Abstract要約: ウェアラブルセンサデータからのヒューマンアクティビティ認識(HAR)は、制約のない環境での動きや活動を特定する。
本稿では,人間の活動単眼映像を用いたリアルな信号や特徴の生成にニューラルネットワークを用いることを提案する。
これらの生成した特徴や信号が、実際のモデルではなく、どのようにしてHARモデルのトレーニングに利用できるかを示す。
- 参考スコア(独自算出の注目度): 0.7087237546722618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human Activity Recognition (HAR) from wearable sensor data identifies
movements or activities in unconstrained environments. HAR is a challenging
problem as it presents great variability across subjects. Obtaining large
amounts of labelled data is not straightforward, since wearable sensor signals
are not easy to label upon simple human inspection. In our work, we propose the
use of neural networks for the generation of realistic signals and features
using human activity monocular videos. We show how these generated features and
signals can be utilized, instead of their real counterparts, to train HAR
models that can recognize activities using signals obtained with wearable
sensors. To prove the validity of our methods, we perform experiments on an
activity recognition dataset created for the improvement of industrial work
safety. We show that our model is able to realistically generate virtual sensor
signals and features usable to train a HAR classifier with comparable
performance as the one trained using real sensor data. Our results enable the
use of available, labelled video data for training HAR models to classify
signals from wearable sensors.
- Abstract(参考訳): ウェアラブルセンサデータからのヒューマンアクティビティ認識(HAR)は、制約のない環境での動きや活動を特定する。
HARは、被験者間で大きなばらつきを示すため、難しい問題である。
ウェアラブルセンサー信号は単純な検査ではラベル付けが容易ではないため、大量のラベル付きデータを取得するのは簡単ではない。
本研究では,人間の活動単眼映像を用いた現実的信号や特徴生成のためのニューラルネットワークの利用を提案する。
これらの生成した特徴や信号が、実際の特徴の代わりにどのように活用できるかを示し、ウェアラブルセンサーで得られる信号を用いて活動を認識することができるHARモデルを訓練する。
本手法の有効性を証明するため,産業作業の安全性向上を目的とした活動認識データセットの実験を行った。
本モデルでは,実センサデータと同等の性能のHAR分類器を訓練するために,仮想センサ信号が現実的に生成可能であることを示す。
この結果から,HARモデルのトレーニングに使用可能なラベル付きビデオデータを使用することで,ウェアラブルセンサからの信号の分類が可能となった。
関連論文リスト
- Radar-Based Recognition of Static Hand Gestures in American Sign
Language [17.021656590925005]
本研究では,先進レーダ線トレーシングシミュレータによる合成データの有効性について検討した。
シミュレータは直感的な材料モデルを採用し、データ多様性を導入するように調整することができる。
NNを合成データで専用にトレーニングしているにもかかわらず、実際の測定データでテストを行うと、有望な性能を示す。
論文 参考訳(メタデータ) (2024-02-20T08:19:30Z) - Physical-Layer Semantic-Aware Network for Zero-Shot Wireless Sensing [74.12670841657038]
デバイスレスワイヤレスセンシングは、幅広い没入型人間機械対話型アプリケーションをサポートする可能性から、近年、大きな関心を集めている。
無線信号におけるデータの均一性と分散センシングにおけるデータプライバシ規制は、広域ネットワークシステムにおける無線センシングの広範な適用を妨げる主要な課題であると考えられている。
そこで本研究では,ラベル付きデータを使わずに,一箇所ないし限られた箇所で構築されたモデルを直接他の場所に転送できるゼロショット無線センシングソリューションを提案する。
論文 参考訳(メタデータ) (2023-12-08T13:50:30Z) - Human Activity Recognition Using Self-Supervised Representations of
Wearable Data [0.0]
HAR(Human Activity Recognition)のための正確なアルゴリズムの開発は、大規模な実世界のラベル付きデータセットの欠如によって妨げられている。
ここでは、トレーニング中に見えない実世界のデータセットで評価した場合、高い性能を有する6クラスHARモデルを開発する。
論文 参考訳(メタデータ) (2023-04-26T07:33:54Z) - DynImp: Dynamic Imputation for Wearable Sensing Data Through Sensory and
Temporal Relatedness [78.98998551326812]
従来の手法では、データの時系列ダイナミクスと、異なるセンサーの特徴の関連性の両方をめったに利用していない、と我々は主張する。
我々はDynImpと呼ばれるモデルを提案し、特徴軸に沿って近接する隣人と異なる時間点の欠如を扱う。
本手法は, 関連センサのマルチモーダル性特性を活かし, 履歴時系列のダイナミックスから学習し, 極端に欠落した状態でデータを再構築することができることを示す。
論文 参考訳(メタデータ) (2022-09-26T21:59:14Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Driving-Signal Aware Full-Body Avatars [49.89791440532946]
そこで本研究では,駆動信号を意識したフルボディアバターを構築するための学習ベース手法を提案する。
我々のモデルは条件付き変分オートエンコーダであり、不完全な駆動信号でアニメーションできる。
仮想テレプレゼンスのためのフルボディアニメーションの課題に対して,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-05-21T16:22:38Z) - Real-time detection of uncalibrated sensors using Neural Networks [62.997667081978825]
オンライン学習に基づく温度・湿度・圧力センサの非校正検出装置を開発した。
このソリューションはニューラルネットワークをメインコンポーネントとして統合し、校正条件下でのセンサーの動作から学習する。
その結果, 提案手法は, 偏差値0.25度, 1% RH, 1.5Paの偏差をそれぞれ検出できることがわかった。
論文 参考訳(メタデータ) (2021-02-02T15:44:39Z) - Contrastive Predictive Coding for Human Activity Recognition [5.766384728949437]
本研究では,センサデータストリームの長期的時間構造をキャプチャする人間行動認識にContrastive Predictive Codingフレームワークを導入する。
CPCベースの事前学習は自己管理され、その結果得られた表現は標準のアクティビティチェーンに統合できる。
少量のラベル付きトレーニングデータしか利用できない場合、認識性能が大幅に向上します。
論文 参考訳(メタデータ) (2020-12-09T21:44:36Z) - Yet it moves: Learning from Generic Motions to Generate IMU data from
YouTube videos [5.008235182488304]
我々は、加速度計とジャイロ信号の両方の一般的な動きの回帰モデルをトレーニングして、合成IMUデータを生成する方法を示す。
我々は、回帰モデルにより生成されたシミュレーションデータに基づいてトレーニングされたシステムが、実センサデータに基づいてトレーニングされたシステムのF1スコアの平均の約10%に到達できることを実証した。
論文 参考訳(メタデータ) (2020-11-23T18:16:46Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - IMUTube: Automatic Extraction of Virtual on-body Accelerometry from
Video for Human Activity Recognition [12.91206329972949]
IMUTubeは、人間の活動の映像をIMUデータの仮想ストリームに変換する自動処理パイプラインである。
これらの仮想IMUストリームは、人体の様々な場所で加速度計を表現している。
本稿では,実際のIMUデータにより,既知のHARデータセット上での各種モデルの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-29T21:50:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。