論文の概要: Contrastive Predictive Coding for Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2012.05333v1
- Date: Wed, 9 Dec 2020 21:44:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 01:57:15.917071
- Title: Contrastive Predictive Coding for Human Activity Recognition
- Title(参考訳): 人間行動認識のためのコントラスト予測符号化
- Authors: Harish Haresamudram, Irfan Essa, Thomas Ploetz
- Abstract要約: 本研究では,センサデータストリームの長期的時間構造をキャプチャする人間行動認識にContrastive Predictive Codingフレームワークを導入する。
CPCベースの事前学習は自己管理され、その結果得られた表現は標準のアクティビティチェーンに統合できる。
少量のラベル付きトレーニングデータしか利用できない場合、認識性能が大幅に向上します。
- 参考スコア(独自算出の注目度): 5.766384728949437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature extraction is crucial for human activity recognition (HAR) using
body-worn movement sensors. Recently, learned representations have been used
successfully, offering promising alternatives to manually engineered features.
Our work focuses on effective use of small amounts of labeled data and the
opportunistic exploitation of unlabeled data that are straightforward to
collect in mobile and ubiquitous computing scenarios. We hypothesize and
demonstrate that explicitly considering the temporality of sensor data at
representation level plays an important role for effective HAR in challenging
scenarios. We introduce the Contrastive Predictive Coding (CPC) framework to
human activity recognition, which captures the long-term temporal structure of
sensor data streams. Through a range of experimental evaluations on real-life
recognition tasks, we demonstrate its effectiveness for improved HAR. CPC-based
pre-training is self-supervised, and the resulting learned representations can
be integrated into standard activity chains. It leads to significantly improved
recognition performance when only small amounts of labeled training data are
available, thereby demonstrating the practical value of our approach.
- Abstract(参考訳): 身体運動センサを用いたヒト活動認識(HAR)には特徴抽出が不可欠である。
最近、学習した表現がうまく使われ、手動で設計した機能に代わる有望な代替手段を提供している。
本研究は,モバイルおよびユビキタスコンピューティングのシナリオで容易に収集可能な,少量のラベル付きデータの有効利用と,ラベルなしデータの機会的利用に焦点を当てる。
我々は,センサデータの時間性を表現レベルで明示的に考慮することが,困難なシナリオにおいて効果的なHARに重要な役割を果たすことを仮定し,実証する。
本稿では,センサデータストリームの長期的時間構造をキャプチャする人間行動認識にContrastive Predictive Coding(CPC)フレームワークを導入する。
実生活認識タスクに対する実験的な評価を通じて,HARの改善効果を実証する。
CPCベースの事前学習は自己管理され、得られた表現は標準のアクティビティチェーンに統合できる。
これにより,少量のラベル付きトレーニングデータしか利用できない場合の認識性能が大幅に向上し,本手法の実用的価値が示された。
関連論文リスト
- Cross-Domain HAR: Few Shot Transfer Learning for Human Activity
Recognition [0.2944538605197902]
本稿では,HARデータセットを有効な転送学習に利用するための経済的なアプローチを提案する。
本稿では,教師が学習する自己学習パラダイムに則って,新たな伝達学習フレームワークであるクロスドメインHARを紹介する。
本手法の有効性を,撮影活動認識のシナリオで実証する。
論文 参考訳(メタデータ) (2023-10-22T19:13:25Z) - A Real-time Human Pose Estimation Approach for Optimal Sensor Placement
in Sensor-based Human Activity Recognition [63.26015736148707]
本稿では,人間の行動認識に最適なセンサ配置の課題を解決するための新しい手法を提案する。
得られた骨格データは、最適なセンサ位置を特定するためのユニークな戦略を提供する。
本研究は,センサ配置の視覚的手法が従来のディープラーニング手法と同等の結果をもたらすことを示唆している。
論文 参考訳(メタデータ) (2023-07-06T10:38:14Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Towards Learning Discrete Representations via Self-Supervision for
Wearables-Based Human Activity Recognition [7.086647707011785]
ウェアラブルコンピューティングにおけるヒューマンアクティビティ認識(HAR)は、通常、センサーデータの直接処理に基づいている。
ウェアラブルアプリケーションへのベクトル量子化(VQ)の最近の進歩により、センサデータの短いスパンとベクトルのコードブックのマッピングを直接学習できるようになりました。
この研究は、離散表現がいかに効果的に導出できるかを示すための概念実証を示す。
論文 参考訳(メタデータ) (2023-06-01T19:49:43Z) - A Matter of Annotation: An Empirical Study on In Situ and Self-Recall Activity Annotations from Wearable Sensors [56.554277096170246]
In-the-wildデータ収集に焦点をあてたユーザスタディにおいて,一般的な4つのアノテーション手法の評価と対比を行う実験的検討を行った。
実際の記録プロセス中に参加者がアノテートするユーザ主導のin situアノテーションと、各日の終わりに参加者が振り返ってアノテートするリコールメソッドの両方に対して、参加者は自身のアクティビティクラスと対応するラベルを選択できる柔軟性を持っていた。
論文 参考訳(メタデータ) (2023-05-15T16:02:56Z) - Human Activity Recognition Using Self-Supervised Representations of
Wearable Data [0.0]
HAR(Human Activity Recognition)のための正確なアルゴリズムの開発は、大規模な実世界のラベル付きデータセットの欠如によって妨げられている。
ここでは、トレーニング中に見えない実世界のデータセットで評価した場合、高い性能を有する6クラスHARモデルを開発する。
論文 参考訳(メタデータ) (2023-04-26T07:33:54Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z) - ALLSH: Active Learning Guided by Local Sensitivity and Hardness [98.61023158378407]
本稿では,局所感度と硬度認識獲得機能を備えたラベル付きサンプルの検索を提案する。
本手法は,様々な分類タスクにおいてよく用いられるアクティブラーニング戦略よりも一貫した利得が得られる。
論文 参考訳(メタデータ) (2022-05-10T15:39:11Z) - Human Activity Recognition on wrist-worn accelerometers using
self-supervised neural networks [0.0]
日常生活活動の指標 (ADL) は, 健康の指標として重要であるが, 生体内測定は困難である。
本稿では,加速度センサデータの頑健な表現をデバイスや対象に対して一般化するための自己教師付き学習パラダイムを提案する。
また,連続した実生活データに対して,有意な活動のセグメントを同定し,HARの精度を高めるセグメンテーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-22T23:35:20Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Sensor Data for Human Activity Recognition: Feature Representation and
Benchmarking [27.061240686613182]
HAR(Human Activity Recognition)の分野は、監視装置(センサなど)から取得したデータを取得し、分析することに焦点を当てている。
我々は、異なる機械学習(ML)技術を用いて、人間のアクティビティを正確に認識する問題に対処する。
論文 参考訳(メタデータ) (2020-05-15T00:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。