論文の概要: Video2IMU: Realistic IMU features and signals from videos
- arxiv url: http://arxiv.org/abs/2202.06547v1
- Date: Mon, 14 Feb 2022 08:37:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 17:20:41.270047
- Title: Video2IMU: Realistic IMU features and signals from videos
- Title(参考訳): Video2IMU:リアルなIMU機能とビデオからの信号
- Authors: Arttu L\"ams\"a, Jaakko Tervonen, Jussi Liikka, Constantino \'Alvarez
Casado, Miguel Bordallo L\'opez
- Abstract要約: ウェアラブルセンサデータからのヒューマンアクティビティ認識(HAR)は、制約のない環境での動きや活動を特定する。
本稿では,人間の活動単眼映像を用いたリアルな信号や特徴の生成にニューラルネットワークを用いることを提案する。
これらの生成した特徴や信号が、実際のモデルではなく、どのようにしてHARモデルのトレーニングに利用できるかを示す。
- 参考スコア(独自算出の注目度): 0.7087237546722618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human Activity Recognition (HAR) from wearable sensor data identifies
movements or activities in unconstrained environments. HAR is a challenging
problem as it presents great variability across subjects. Obtaining large
amounts of labelled data is not straightforward, since wearable sensor signals
are not easy to label upon simple human inspection. In our work, we propose the
use of neural networks for the generation of realistic signals and features
using human activity monocular videos. We show how these generated features and
signals can be utilized, instead of their real counterparts, to train HAR
models that can recognize activities using signals obtained with wearable
sensors. To prove the validity of our methods, we perform experiments on an
activity recognition dataset created for the improvement of industrial work
safety. We show that our model is able to realistically generate virtual sensor
signals and features usable to train a HAR classifier with comparable
performance as the one trained using real sensor data. Our results enable the
use of available, labelled video data for training HAR models to classify
signals from wearable sensors.
- Abstract(参考訳): ウェアラブルセンサデータからのヒューマンアクティビティ認識(HAR)は、制約のない環境での動きや活動を特定する。
HARは、被験者間で大きなばらつきを示すため、難しい問題である。
ウェアラブルセンサー信号は単純な検査ではラベル付けが容易ではないため、大量のラベル付きデータを取得するのは簡単ではない。
本研究では,人間の活動単眼映像を用いた現実的信号や特徴生成のためのニューラルネットワークの利用を提案する。
これらの生成した特徴や信号が、実際の特徴の代わりにどのように活用できるかを示し、ウェアラブルセンサーで得られる信号を用いて活動を認識することができるHARモデルを訓練する。
本手法の有効性を証明するため,産業作業の安全性向上を目的とした活動認識データセットの実験を行った。
本モデルでは,実センサデータと同等の性能のHAR分類器を訓練するために,仮想センサ信号が現実的に生成可能であることを示す。
この結果から,HARモデルのトレーニングに使用可能なラベル付きビデオデータを使用することで,ウェアラブルセンサからの信号の分類が可能となった。
関連論文リスト
- MSSIDD: A Benchmark for Multi-Sensor Denoising [55.41612200877861]
我々は,マルチセンサSIDDデータセットという新しいベンチマークを導入する。これは,認知モデルのセンサ伝達性を評価するために設計された,最初の生ドメインデータセットである。
そこで本研究では,センサに不変な特徴を認知モデルで学習することのできるセンサ一貫性トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-18T13:32:59Z) - Scaling Wearable Foundation Models [54.93979158708164]
センサ基礎モデルのスケーリング特性を計算,データ,モデルサイズにわたって検討する。
最大4000万時間分の心拍数、心拍変動、心電図活動、加速度計、皮膚温度、および1分間のデータを用いて、私たちはLSMを作成します。
この結果から,LSMのスケーリング法則は,時間とセンサの両面において,計算や外挿などのタスクに対して確立されている。
論文 参考訳(メタデータ) (2024-10-17T15:08:21Z) - Radar-Based Recognition of Static Hand Gestures in American Sign
Language [17.021656590925005]
本研究では,先進レーダ線トレーシングシミュレータによる合成データの有効性について検討した。
シミュレータは直感的な材料モデルを採用し、データ多様性を導入するように調整することができる。
NNを合成データで専用にトレーニングしているにもかかわらず、実際の測定データでテストを行うと、有望な性能を示す。
論文 参考訳(メタデータ) (2024-02-20T08:19:30Z) - Physical-Layer Semantic-Aware Network for Zero-Shot Wireless Sensing [74.12670841657038]
デバイスレスワイヤレスセンシングは、幅広い没入型人間機械対話型アプリケーションをサポートする可能性から、近年、大きな関心を集めている。
無線信号におけるデータの均一性と分散センシングにおけるデータプライバシ規制は、広域ネットワークシステムにおける無線センシングの広範な適用を妨げる主要な課題であると考えられている。
そこで本研究では,ラベル付きデータを使わずに,一箇所ないし限られた箇所で構築されたモデルを直接他の場所に転送できるゼロショット無線センシングソリューションを提案する。
論文 参考訳(メタデータ) (2023-12-08T13:50:30Z) - Unsupervised Statistical Feature-Guided Diffusion Model for Sensor-based Human Activity Recognition [3.2319909486685354]
ウェアラブルセンサーによる人間の活動認識の進歩を支えている重要な問題は、多様なラベル付きトレーニングデータの利用不可能である。
本研究では,ウェアラブルセンサを用いた人間行動認識に特化して最適化された,教師なしの統計的特徴誘導拡散モデルを提案する。
平均,標準偏差,Zスコア,歪などの統計情報に拡散モデルを適用し,多種多様な合成センサデータを生成する。
論文 参考訳(メタデータ) (2023-05-30T15:12:59Z) - Human Activity Recognition Using Self-Supervised Representations of
Wearable Data [0.0]
HAR(Human Activity Recognition)のための正確なアルゴリズムの開発は、大規模な実世界のラベル付きデータセットの欠如によって妨げられている。
ここでは、トレーニング中に見えない実世界のデータセットで評価した場合、高い性能を有する6クラスHARモデルを開発する。
論文 参考訳(メタデータ) (2023-04-26T07:33:54Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Driving-Signal Aware Full-Body Avatars [49.89791440532946]
そこで本研究では,駆動信号を意識したフルボディアバターを構築するための学習ベース手法を提案する。
我々のモデルは条件付き変分オートエンコーダであり、不完全な駆動信号でアニメーションできる。
仮想テレプレゼンスのためのフルボディアニメーションの課題に対して,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-05-21T16:22:38Z) - Yet it moves: Learning from Generic Motions to Generate IMU data from
YouTube videos [5.008235182488304]
我々は、加速度計とジャイロ信号の両方の一般的な動きの回帰モデルをトレーニングして、合成IMUデータを生成する方法を示す。
我々は、回帰モデルにより生成されたシミュレーションデータに基づいてトレーニングされたシステムが、実センサデータに基づいてトレーニングされたシステムのF1スコアの平均の約10%に到達できることを実証した。
論文 参考訳(メタデータ) (2020-11-23T18:16:46Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - IMUTube: Automatic Extraction of Virtual on-body Accelerometry from
Video for Human Activity Recognition [12.91206329972949]
IMUTubeは、人間の活動の映像をIMUデータの仮想ストリームに変換する自動処理パイプラインである。
これらの仮想IMUストリームは、人体の様々な場所で加速度計を表現している。
本稿では,実際のIMUデータにより,既知のHARデータセット上での各種モデルの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-29T21:50:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。