論文の概要: Self-Supervised Human Activity Recognition with Localized Time-Frequency
Contrastive Representation Learning
- arxiv url: http://arxiv.org/abs/2209.00990v1
- Date: Fri, 26 Aug 2022 22:47:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-11 13:15:01.216103
- Title: Self-Supervised Human Activity Recognition with Localized Time-Frequency
Contrastive Representation Learning
- Title(参考訳): 時間周波数コントラスト表現学習を用いた自己監督型人間行動認識
- Authors: Setareh Rahimi Taghanaki, Michael Rainbow and Ali Etemad
- Abstract要約: スマートフォン加速度計データを用いた人間行動認識のための自己教師付き学習ソリューションを提案する。
加速度計信号から強い表現を学習し,クラスラベルへの依存度を低減させるモデルを開発した。
提案手法の性能をMotionSense, HAPT, HHARの3つのデータセットで評価した。
- 参考スコア(独自算出の注目度): 16.457778420360537
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper, we propose a self-supervised learning solution for human
activity recognition with smartphone accelerometer data. We aim to develop a
model that learns strong representations from accelerometer signals, in order
to perform robust human activity classification, while reducing the model's
reliance on class labels. Specifically, we intend to enable cross-dataset
transfer learning such that our network pre-trained on a particular dataset can
perform effective activity classification on other datasets (successive to a
small amount of fine-tuning). To tackle this problem, we design our solution
with the intention of learning as much information from the accelerometer
signals as possible. As a result, we design two separate pipelines, one that
learns the data in time-frequency domain, and the other in time-domain alone.
In order to address the issues mentioned above in regards to cross-dataset
transfer learning, we use self-supervised contrastive learning to train each of
these streams. Next, each stream is fine-tuned for final classification, and
eventually the two are fused to provide the final results. We evaluate the
performance of the proposed solution on three datasets, namely MotionSense,
HAPT, and HHAR, and demonstrate that our solution outperforms prior works in
this field. We further evaluate the performance of the method in learning
generalized features, by using MobiAct dataset for pre-training and the
remaining three datasets for the downstream classification task, and show that
the proposed solution achieves better performance in comparison with other
self-supervised methods in cross-dataset transfer learning.
- Abstract(参考訳): 本稿では,スマートフォン加速度計データを用いた人間行動認識のための自己教師付き学習ソリューションを提案する。
加速度計信号から強い表現を学習するモデルを開発し、ロバストな人間の行動分類を行い、モデルのクラスラベルへの依存度を減らすことを目的とする。
具体的には、特定のデータセット上で事前訓練されたネットワークが、他のデータセット上で効果的なアクティビティ分類を行うことができるように、データセット間転送学習を可能にする。
この問題に対処するため,我々は加速度計信号からできるだけ多くの情報を学習する目的でソリューションを設計した。
その結果、時間周波数領域でデータを学習するパイプラインと、時間領域のみでデータを学習するパイプラインを2つ設計した。
データセット間転送学習における上記の問題に対処するため,各ストリームを自己教師付きコントラスト学習を用いて学習する。
次に、各ストリームは最終分類のために微調整され、最終的に2つが融合して最終結果を提供する。
提案手法の性能をMotionSense, HAPT, HHARの3つのデータセットで評価し, 本手法が従来よりも優れていることを示す。
さらに,本手法の性能を,事前学習のためのmobiactデータセットと下流分類タスクのための残りの3つのデータセットを用いて評価し,クロスデータセット転送学習における他の自己教師付き手法と比較して優れた性能が得られることを示す。
関連論文リスト
- Continual Learning for Multimodal Data Fusion of a Soft Gripper [1.0589208420411014]
あるデータモダリティに基づいてトレーニングされたモデルは、異なるモダリティでテストした場合、しばしば失敗する。
異なるデータモダリティを漸進的に学習できる連続学習アルゴリズムを提案する。
我々は、アルゴリズムの有効性を、挑戦的なカスタムマルチモーダルデータセット上で評価する。
論文 参考訳(メタデータ) (2024-09-20T09:53:27Z) - Consistency Based Weakly Self-Supervised Learning for Human Activity Recognition with Wearables [1.565361244756411]
センサデータから人間の活動を認識するための弱自己教師型アプローチについて述べる。
提案手法は, クラスタリングアルゴリズムが, 基礎となる人間の行動を特定し, 分類する上で, 同等のパフォーマンスを達成するのに有効であることを示す。
論文 参考訳(メタデータ) (2024-07-29T06:29:21Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - SPOT: Scalable 3D Pre-training via Occupancy Prediction for Learning Transferable 3D Representations [76.45009891152178]
トレーニング-ファインタニングアプローチは、さまざまな下流データセットとタスクをまたいだトレーニング済みのバックボーンを微調整することで、ラベル付けの負担を軽減することができる。
本稿では, 一般表現学習が, 占領予測のタスクを通じて達成できることを, 初めて示す。
本研究は,LiDAR 点の理解を促進するとともに,LiDAR の事前訓練における今後の進歩の道を開くことを目的とする。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Multi-dataset Training of Transformers for Robust Action Recognition [75.5695991766902]
動作認識のための複数のデータセットをうまく一般化することを目的として,ロバストな特徴表現の課題について検討する。
本稿では、情報損失と投影損失という2つの新しい損失項を設計した、新しいマルチデータセットトレーニングパラダイムであるMultiTrainを提案する。
本研究では,Kineetics-400,Kineetics-700,Moments-in-Time,Activitynet,Some-something-v2の5つの課題データセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T01:30:43Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - Self-supervised Human Activity Recognition by Learning to Predict
Cross-Dimensional Motion [16.457778420360537]
スマートフォン加速度計データを用いた人間行動認識のための自己教師型学習法を提案する。
まず、ラベルなし入力信号の表現は、深層畳み込みニューラルネットワークを訓練して加速度計値のセグメントを予測することによって学習される。
このタスクでは、凍結ネットワークの端に多数の完全に接続されたレイヤを追加し、ラベル付き加速度センサ信号で付加されたレイヤをトレーニングし、人間の活動の分類を学ぶ。
論文 参考訳(メタデータ) (2020-10-21T02:14:31Z) - Federated Self-Supervised Learning of Multi-Sensor Representations for
Embedded Intelligence [8.110949636804772]
スマートフォン、ウェアラブル、IoT(Internet of Things)デバイスは、教師付きモデルを学習するための集中リポジトリに蓄積できない豊富なデータを生成する。
本稿では,ウェーブレット変換に基づくテキストカルグラム・信号対応学習という自己教師付きアプローチを提案し,ラベルなしセンサ入力から有用な表現を学習する。
さまざまなパブリックデータセットのマルチビュー戦略を用いて,学習機能の品質を広範囲に評価し,すべての領域で高いパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-07-25T21:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。