論文の概要: Self-Supervised Human Activity Recognition with Localized Time-Frequency
Contrastive Representation Learning
- arxiv url: http://arxiv.org/abs/2209.00990v1
- Date: Fri, 26 Aug 2022 22:47:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-11 13:15:01.216103
- Title: Self-Supervised Human Activity Recognition with Localized Time-Frequency
Contrastive Representation Learning
- Title(参考訳): 時間周波数コントラスト表現学習を用いた自己監督型人間行動認識
- Authors: Setareh Rahimi Taghanaki, Michael Rainbow and Ali Etemad
- Abstract要約: スマートフォン加速度計データを用いた人間行動認識のための自己教師付き学習ソリューションを提案する。
加速度計信号から強い表現を学習し,クラスラベルへの依存度を低減させるモデルを開発した。
提案手法の性能をMotionSense, HAPT, HHARの3つのデータセットで評価した。
- 参考スコア(独自算出の注目度): 16.457778420360537
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper, we propose a self-supervised learning solution for human
activity recognition with smartphone accelerometer data. We aim to develop a
model that learns strong representations from accelerometer signals, in order
to perform robust human activity classification, while reducing the model's
reliance on class labels. Specifically, we intend to enable cross-dataset
transfer learning such that our network pre-trained on a particular dataset can
perform effective activity classification on other datasets (successive to a
small amount of fine-tuning). To tackle this problem, we design our solution
with the intention of learning as much information from the accelerometer
signals as possible. As a result, we design two separate pipelines, one that
learns the data in time-frequency domain, and the other in time-domain alone.
In order to address the issues mentioned above in regards to cross-dataset
transfer learning, we use self-supervised contrastive learning to train each of
these streams. Next, each stream is fine-tuned for final classification, and
eventually the two are fused to provide the final results. We evaluate the
performance of the proposed solution on three datasets, namely MotionSense,
HAPT, and HHAR, and demonstrate that our solution outperforms prior works in
this field. We further evaluate the performance of the method in learning
generalized features, by using MobiAct dataset for pre-training and the
remaining three datasets for the downstream classification task, and show that
the proposed solution achieves better performance in comparison with other
self-supervised methods in cross-dataset transfer learning.
- Abstract(参考訳): 本稿では,スマートフォン加速度計データを用いた人間行動認識のための自己教師付き学習ソリューションを提案する。
加速度計信号から強い表現を学習するモデルを開発し、ロバストな人間の行動分類を行い、モデルのクラスラベルへの依存度を減らすことを目的とする。
具体的には、特定のデータセット上で事前訓練されたネットワークが、他のデータセット上で効果的なアクティビティ分類を行うことができるように、データセット間転送学習を可能にする。
この問題に対処するため,我々は加速度計信号からできるだけ多くの情報を学習する目的でソリューションを設計した。
その結果、時間周波数領域でデータを学習するパイプラインと、時間領域のみでデータを学習するパイプラインを2つ設計した。
データセット間転送学習における上記の問題に対処するため,各ストリームを自己教師付きコントラスト学習を用いて学習する。
次に、各ストリームは最終分類のために微調整され、最終的に2つが融合して最終結果を提供する。
提案手法の性能をMotionSense, HAPT, HHARの3つのデータセットで評価し, 本手法が従来よりも優れていることを示す。
さらに,本手法の性能を,事前学習のためのmobiactデータセットと下流分類タスクのための残りの3つのデータセットを用いて評価し,クロスデータセット転送学習における他の自己教師付き手法と比較して優れた性能が得られることを示す。
関連論文リスト
- Reinforcement Learning Based Multi-modal Feature Fusion Network for
Novel Class Discovery [47.28191501836041]
本稿では,人間の認知過程をシミュレートするために強化学習フレームワークを用いる。
また,マルチモーダル情報から特徴を抽出・融合するマルチエージェントフレームワークをデプロイした。
我々は、OS-MN40、OS-MN40-Miss、Cifar10データセットを用いて、3Dドメインと2Dドメインの両方でのアプローチの性能を示す。
論文 参考訳(メタデータ) (2023-08-26T07:55:32Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Multi-Task Self-Supervised Time-Series Representation Learning [3.31490164885582]
時系列表現学習は、時間的ダイナミクスとスパースラベルを持つデータから表現を抽出することができる。
自己教師型タスクの利点を組み合わせた時系列表現学習手法を提案する。
本稿では,時系列分類,予測,異常検出という3つのダウンストリームタスクの枠組みについて検討する。
論文 参考訳(メタデータ) (2023-03-02T07:44:06Z) - Towards Robust Dataset Learning [90.2590325441068]
本稿では,頑健なデータセット学習問題を定式化するための三段階最適化法を提案する。
ロバストな特徴と非ロバストな特徴を特徴付ける抽象モデルの下で,提案手法はロバストなデータセットを確実に学習する。
論文 参考訳(メタデータ) (2022-11-19T17:06:10Z) - Multi-dataset Training of Transformers for Robust Action Recognition [75.5695991766902]
動作認識のための複数のデータセットをうまく一般化することを目的として,ロバストな特徴表現の課題について検討する。
本稿では、情報損失と投影損失という2つの新しい損失項を設計した、新しいマルチデータセットトレーニングパラダイムであるMultiTrainを提案する。
本研究では,Kineetics-400,Kineetics-700,Moments-in-Time,Activitynet,Some-something-v2の5つの課題データセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T01:30:43Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - Self-supervised Human Activity Recognition by Learning to Predict
Cross-Dimensional Motion [16.457778420360537]
スマートフォン加速度計データを用いた人間行動認識のための自己教師型学習法を提案する。
まず、ラベルなし入力信号の表現は、深層畳み込みニューラルネットワークを訓練して加速度計値のセグメントを予測することによって学習される。
このタスクでは、凍結ネットワークの端に多数の完全に接続されたレイヤを追加し、ラベル付き加速度センサ信号で付加されたレイヤをトレーニングし、人間の活動の分類を学ぶ。
論文 参考訳(メタデータ) (2020-10-21T02:14:31Z) - Federated Self-Supervised Learning of Multi-Sensor Representations for
Embedded Intelligence [8.110949636804772]
スマートフォン、ウェアラブル、IoT(Internet of Things)デバイスは、教師付きモデルを学習するための集中リポジトリに蓄積できない豊富なデータを生成する。
本稿では,ウェーブレット変換に基づくテキストカルグラム・信号対応学習という自己教師付きアプローチを提案し,ラベルなしセンサ入力から有用な表現を学習する。
さまざまなパブリックデータセットのマルチビュー戦略を用いて,学習機能の品質を広範囲に評価し,すべての領域で高いパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-07-25T21:59:17Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。