論文の概要: IMUTube: Automatic Extraction of Virtual on-body Accelerometry from
Video for Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2006.05675v2
- Date: Tue, 4 Aug 2020 15:21:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 23:58:17.779964
- Title: IMUTube: Automatic Extraction of Virtual on-body Accelerometry from
Video for Human Activity Recognition
- Title(参考訳): IMUTube:人間の行動認識のためのビデオからの仮想身体加速度計の自動抽出
- Authors: Hyeokhyen Kwon, Catherine Tong, Harish Haresamudram, Yan Gao, Gregory
D. Abowd, Nicholas D. Lane, Thomas Ploetz
- Abstract要約: IMUTubeは、人間の活動の映像をIMUデータの仮想ストリームに変換する自動処理パイプラインである。
これらの仮想IMUストリームは、人体の様々な場所で加速度計を表現している。
本稿では,実際のIMUデータにより,既知のHARデータセット上での各種モデルの性能が向上することを示す。
- 参考スコア(独自算出の注目度): 12.91206329972949
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The lack of large-scale, labeled data sets impedes progress in developing
robust and generalized predictive models for on-body sensor-based human
activity recognition (HAR). Labeled data in human activity recognition is
scarce and hard to come by, as sensor data collection is expensive, and the
annotation is time-consuming and error-prone. To address this problem, we
introduce IMUTube, an automated processing pipeline that integrates existing
computer vision and signal processing techniques to convert videos of human
activity into virtual streams of IMU data. These virtual IMU streams represent
accelerometry at a wide variety of locations on the human body. We show how the
virtually-generated IMU data improves the performance of a variety of models on
known HAR datasets. Our initial results are very promising, but the greater
promise of this work lies in a collective approach by the computer vision,
signal processing, and activity recognition communities to extend this work in
ways that we outline. This should lead to on-body, sensor-based HAR becoming
yet another success story in large-dataset breakthroughs in recognition.
- Abstract(参考訳): 大規模ラベル付きデータセットの欠如は、オンボディセンサーに基づく人間活動認識(HAR)のための堅牢で一般化された予測モデルの開発の進展を妨げている。
センサデータ収集は高価であり、アノテーションは時間がかかり、エラーが発生しやすいため、人間の行動認識におけるラベル付きデータは少ない。
この問題に対処するために、既存のコンピュータビジョンと信号処理技術を統合した自動処理パイプラインであるIMUTubeを導入し、人間の活動のビデオからIMUデータの仮想ストリームに変換する。
これらの仮想IMUストリームは、人体の様々な場所で加速度計を表す。
本稿では,実際のIMUデータにより,既知のHARデータセット上での各種モデルの性能が向上することを示す。
私たちの最初の成果は非常に有望ですが、この作業のより大きな期待は、コンピュータビジョン、信号処理、アクティビティ認識コミュニティによる、私たちが概説する方法でこの作業を拡張するための集団的アプローチにあります。
これにより、身近なセンサーベースのHARが、大規模データセットのブレークスルーの新たな成功物語になるはずだ。
関連論文リスト
- Scaling Wearable Foundation Models [54.93979158708164]
センサ基礎モデルのスケーリング特性を計算,データ,モデルサイズにわたって検討する。
最大4000万時間分の心拍数、心拍変動、心電図活動、加速度計、皮膚温度、および1分間のデータを用いて、私たちはLSMを作成します。
この結果から,LSMのスケーリング法則は,時間とセンサの両面において,計算や外挿などのタスクに対して確立されている。
論文 参考訳(メタデータ) (2024-10-17T15:08:21Z) - Sensor Data Augmentation from Skeleton Pose Sequences for Improving Human Activity Recognition [5.669438716143601]
HAR(Human Activity Recognition)は、ディープラーニングの普及に大きく貢献していない。
本稿では,センサをベースとしたウェアラブル型HARに対して,ポーズ・ツー・センサ・ネットワークモデルを導入することにより,新たなアプローチを提案する。
コントリビューションには、同時トレーニングの統合、直接ポーズ・ツー・センサ生成、MM-Fitデータセットの包括的な評価が含まれる。
論文 参考訳(メタデータ) (2024-04-25T10:13:18Z) - IMUGPT 2.0: Language-Based Cross Modality Transfer for Sensor-Based
Human Activity Recognition [0.19791587637442667]
クロスモーダリティ転送アプローチは、既存のデータセットを、ビデオのようなソースモーダリティからターゲットモーダリティ(IMU)に変換する。
我々はIMUGPTに2つの新しい拡張を導入し、実用的なHARアプリケーションシナリオの利用を拡大した。
我々の多様性指標は、仮想IMUデータの生成に必要な労力を少なくとも50%削減できることを示した。
論文 参考訳(メタデータ) (2024-02-01T22:37:33Z) - Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - Unsupervised Statistical Feature-Guided Diffusion Model for Sensor-based Human Activity Recognition [3.2319909486685354]
ウェアラブルセンサーによる人間の活動認識の進歩を支えている重要な問題は、多様なラベル付きトレーニングデータの利用不可能である。
本研究では,ウェアラブルセンサを用いた人間行動認識に特化して最適化された,教師なしの統計的特徴誘導拡散モデルを提案する。
平均,標準偏差,Zスコア,歪などの統計情報に拡散モデルを適用し,多種多様な合成センサデータを生成する。
論文 参考訳(メタデータ) (2023-05-30T15:12:59Z) - Human Activity Recognition Using Self-Supervised Representations of
Wearable Data [0.0]
HAR(Human Activity Recognition)のための正確なアルゴリズムの開発は、大規模な実世界のラベル付きデータセットの欠如によって妨げられている。
ここでは、トレーニング中に見えない実世界のデータセットで評価した場合、高い性能を有する6クラスHARモデルを開発する。
論文 参考訳(メタデータ) (2023-04-26T07:33:54Z) - Synthetic-to-Real Domain Adaptation for Action Recognition: A Dataset and Baseline Performances [76.34037366117234]
ロボット制御ジェスチャー(RoCoG-v2)と呼ばれる新しいデータセットを導入する。
データセットは7つのジェスチャークラスの実ビデオと合成ビデオの両方で構成されている。
我々は,最先端の行動認識とドメイン適応アルゴリズムを用いて結果を示す。
論文 参考訳(メタデータ) (2023-03-17T23:23:55Z) - Video-based Pose-Estimation Data as Source for Transfer Learning in
Human Activity Recognition [71.91734471596433]
オンボディデバイスを用いたヒューマンアクティビティ認識(HAR)は、制約のない環境での特定の人間の行動を特定する。
これまでの研究は、トランスファーラーニングが、少ないデータでシナリオに対処するための良い戦略であることを実証した。
本稿では,人為的位置推定を目的としたデータセットを伝達学習の情報源として用いることを提案する。
論文 参考訳(メタデータ) (2022-12-02T18:19:36Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - A Deep Learning Method for Complex Human Activity Recognition Using
Virtual Wearable Sensors [22.923108537119685]
センサに基づくヒューマンアクティビティ認識(HAR)は、現在、複数のアプリケーション領域で研究ホットスポットとなっている。
本研究では,実シーンにおける複雑なHARの深層学習に基づく新しい手法を提案する。
提案手法は驚くほど数イテレーションで収束し、実際のIMUデータセット上で91.15%の精度が得られる。
論文 参考訳(メタデータ) (2020-03-04T03:31:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。