論文の概要: Video-based Pose-Estimation Data as Source for Transfer Learning in
Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2212.01353v1
- Date: Fri, 2 Dec 2022 18:19:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 17:08:24.784438
- Title: Video-based Pose-Estimation Data as Source for Transfer Learning in
Human Activity Recognition
- Title(参考訳): 行動認識における伝達学習の源としての映像ベースポーズ推定データ
- Authors: Shrutarv Awasthi, Fernando Moya Rueda, Gernot A. Fink
- Abstract要約: オンボディデバイスを用いたヒューマンアクティビティ認識(HAR)は、制約のない環境での特定の人間の行動を特定する。
これまでの研究は、トランスファーラーニングが、少ないデータでシナリオに対処するための良い戦略であることを実証した。
本稿では,人為的位置推定を目的としたデータセットを伝達学習の情報源として用いることを提案する。
- 参考スコア(独自算出の注目度): 71.91734471596433
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human Activity Recognition (HAR) using on-body devices identifies specific
human actions in unconstrained environments. HAR is challenging due to the
inter and intra-variance of human movements; moreover, annotated datasets from
on-body devices are scarce. This problem is mainly due to the difficulty of
data creation, i.e., recording, expensive annotation, and lack of standard
definitions of human activities. Previous works demonstrated that transfer
learning is a good strategy for addressing scenarios with scarce data. However,
the scarcity of annotated on-body device datasets remains. This paper proposes
using datasets intended for human-pose estimation as a source for transfer
learning; specifically, it deploys sequences of annotated pixel coordinates of
human joints from video datasets for HAR and human pose estimation. We
pre-train a deep architecture on four benchmark video-based source datasets.
Finally, an evaluation is carried out on three on-body device datasets
improving HAR performance.
- Abstract(参考訳): オンボディデバイスを用いたヒューマンアクティビティ認識(HAR)は、制約のない環境での特定の人間の行動を特定する。
HARは人間の動きの相互および内部のばらつきのために困難であり、さらに、オンボディデバイスからの注釈付きデータセットは少ない。
この問題は、記録、高価なアノテーション、人間の活動の標準的な定義の欠如など、データ生成の難しさが主な原因である。
前回の研究では、少ないデータでシナリオに対処するための優れた戦略として、転送学習が示されている。
しかし、アノテートされたオンボディデバイスデータセットの不足は残る。
本稿では,人間の位置推定のためのビデオデータセットから,人間の関節のアノテートされたピクセル座標のシーケンスを展開し,人間のポーズ推定を行う,トランスファーラーニング学習のソースとしてヒューマン・ポーズ推定を意図したデータセットを提案する。
4つのベンチマークビデオベースのソースデータセットで、深いアーキテクチャを事前トレーニングします。
最後に、HAR性能を向上させる3つのオンボディデバイスデータセットに対して評価を行う。
関連論文リスト
- A Unified Framework for Human-centric Point Cloud Video Understanding [23.91555808792291]
人間中心のポイントクラウドビデオ理解(PVU)は、人間のポイントクラウドのシーケンスから人間に関連する特徴を抽出し、解釈することに焦点を当てた新興分野である。
本稿では,従来の知識を十分に活用する統一的なフレームワークを提案し,汎用的人間中心のクラウドビデオ理解のためのデータ自体の本質的特徴を探求する。
本手法は,動作認識や3次元ポーズ推定など,多種多様なヒューマンタスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-29T07:53:06Z) - Machine Learning Techniques for Sensor-based Human Activity Recognition with Data Heterogeneity -- A Review [0.8142555609235358]
HAR(Human Activity Recognition)はユビキタスコンピューティングにおいて重要である。
HARは特にデータ分散の仮定において、課題に直面します。
本稿では,機械学習がHARにおけるデータの不均一性にどのように対処するかを検討する。
論文 参考訳(メタデータ) (2024-03-12T22:22:14Z) - Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - HumanBench: Towards General Human-centric Perception with Projector
Assisted Pretraining [75.1086193340286]
汎用的な人中心下流作業のための一般的な事前訓練モデルを持つことが望ましい。
本研究では,既存のデータセットをベースとしたtextbfHumanBench を提案する。
我々のPATHは、17の下流データセットと他の2つのデータセットの中間結果に対して、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2023-03-10T02:57:07Z) - Dataset Bias in Human Activity Recognition [57.91018542715725]
このコントリビューションは、トレーニングデータを統計的にキュレートし、人間の身体的特性がHARのパフォーマンスにどの程度影響するかを評価する。
時系列HARのセンサ,アクティビティ,記録の異なる2つのHARデータセット上で,最先端の畳み込みニューラルネットワークの性能を評価する。
論文 参考訳(メタデータ) (2023-01-19T12:33:50Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [52.84233165201391]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - IMUTube: Automatic Extraction of Virtual on-body Accelerometry from
Video for Human Activity Recognition [12.91206329972949]
IMUTubeは、人間の活動の映像をIMUデータの仮想ストリームに変換する自動処理パイプラインである。
これらの仮想IMUストリームは、人体の様々な場所で加速度計を表現している。
本稿では,実際のIMUデータにより,既知のHARデータセット上での各種モデルの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-29T21:50:38Z) - Sensor Data for Human Activity Recognition: Feature Representation and
Benchmarking [27.061240686613182]
HAR(Human Activity Recognition)の分野は、監視装置(センサなど)から取得したデータを取得し、分析することに焦点を当てている。
我々は、異なる機械学習(ML)技術を用いて、人間のアクティビティを正確に認識する問題に対処する。
論文 参考訳(メタデータ) (2020-05-15T00:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。