論文の概要: Temporal Feature Alignment in Contrastive Self-Supervised Learning for
Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2210.03382v1
- Date: Fri, 7 Oct 2022 07:51:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 13:24:48.299017
- Title: Temporal Feature Alignment in Contrastive Self-Supervised Learning for
Human Activity Recognition
- Title(参考訳): 対人行動認識のための自己監督学習における時間的特徴アライメント
- Authors: Bulat Khaertdinov and Stylianos Asteriadis
- Abstract要約: 自己教師付き学習は通常、ラベルのないデータから深い特徴表現を学習するために使用される。
本稿では,時間空間に動的時間ワープアルゴリズムを組み込んで,時間次元で特徴を整列させる手法を提案する。
提案されたアプローチは、最近のSSLベースラインと比較して、ロバストな特徴表現を学習する大きな可能性を秘めている。
- 参考スコア(独自算出の注目度): 2.2082422928825136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated Human Activity Recognition has long been a problem of great
interest in human-centered and ubiquitous computing. In the last years, a
plethora of supervised learning algorithms based on deep neural networks has
been suggested to address this problem using various modalities. While every
modality has its own limitations, there is one common challenge. Namely,
supervised learning requires vast amounts of annotated data which is
practically hard to collect. In this paper, we benefit from the self-supervised
learning paradigm (SSL) that is typically used to learn deep feature
representations from unlabeled data. Moreover, we upgrade a contrastive SSL
framework, namely SimCLR, widely used in various applications by introducing a
temporal feature alignment procedure for Human Activity Recognition.
Specifically, we propose integrating a dynamic time warping (DTW) algorithm in
a latent space to force features to be aligned in a temporal dimension.
Extensive experiments have been conducted for the unimodal scenario with
inertial modality as well as in multimodal settings using inertial and skeleton
data. According to the obtained results, the proposed approach has a great
potential in learning robust feature representations compared to the recent SSL
baselines, and clearly outperforms supervised models in semi-supervised
learning. The code for the unimodal case is available via the following link:
https://github.com/bulatkh/csshar_tfa.
- Abstract(参考訳): 人間活動認識の自動化は、長い間、人間中心のユビキタスコンピューティングに大きな関心を寄せてきた。
近年,深層ニューラルネットワークに基づく教師付き学習アルゴリズムが多数提案されている。
すべてのモダリティには独自の制限があるが、共通する課題はひとつある。
すなわち、教師付き学習には大量の注釈付きデータが必要である。
本稿では、ラベルのないデータから深い特徴表現を学習するために一般的に使用される自己教師付き学習パラダイム(SSL)の恩恵を受ける。
さらに,ヒューマンアクティビティ認識のための時間的特徴アライメント手順を導入することにより,さまざまなアプリケーションで広く使用されている対照的なSSLフレームワークであるSimCLRをアップグレードする。
具体的には,動的時間ウォーピング(dtw)アルゴリズムを潜在空間に統合し,特徴を時間次元に整列させる手法を提案する。
慣性および骨格データを用いたマルチモーダル・セッティングにおいて,慣性モーダリティを伴う一様シナリオに対して大規模な実験を行った。
その結果,提案手法は最近のSSLベースラインと比較して頑健な特徴表現を学習する可能性が高く,半教師付き学習において教師付きモデルよりも明らかに優れていた。
unimodal caseのコードは以下のリンクで入手できる。
関連論文リスト
- Self-STORM: Deep Unrolled Self-Supervised Learning for Super-Resolution Microscopy [55.2480439325792]
我々は、シーケンス固有のモデルベースのオートエンコーダをトレーニングすることで、そのようなデータの必要性を軽減する、深層無学習の自己教師付き学習を導入する。
提案手法は, 監視対象の性能を超過する。
論文 参考訳(メタデータ) (2024-03-25T17:40:32Z) - COOLer: Class-Incremental Learning for Appearance-Based Multiple Object
Tracking [32.47215340215641]
本稿では,連続学習研究の範囲を,複数物体追跡(MOT)のためのクラス増分学習に拡張する。
オブジェクト検出器の連続学習のための従来のソリューションは、外見に基づくトラッカーのデータ関連ステージには対応していない。
我々は,Contrastive- and cOntinual-LearningベースのトラッカーであるCOOLerを紹介した。
論文 参考訳(メタデータ) (2023-10-04T17:49:48Z) - Reinforcement Learning Based Multi-modal Feature Fusion Network for
Novel Class Discovery [47.28191501836041]
本稿では,人間の認知過程をシミュレートするために強化学習フレームワークを用いる。
また,マルチモーダル情報から特徴を抽出・融合するマルチエージェントフレームワークをデプロイした。
我々は、OS-MN40、OS-MN40-Miss、Cifar10データセットを用いて、3Dドメインと2Dドメインの両方でのアプローチの性能を示す。
論文 参考訳(メタデータ) (2023-08-26T07:55:32Z) - Modular Neural Network Approaches for Surgical Image Recognition [0.0]
本稿では,DCSS不安定性分類のためのモジュール型学習の異なるアーキテクチャを導入,評価する。
実験の結果,モジュール型学習は非モジュール型システムと比較して性能が向上することがわかった。
第2部では,肩関節鏡画像への自己訓練によるデータラベリングとセグメンテーションのアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-17T22:28:16Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Characterizing and overcoming the greedy nature of learning in
multi-modal deep neural networks [62.48782506095565]
深層ニューラルネットワークにおける学習の欲張った性質から、モデルは一つのモダリティにのみ依存する傾向にあり、他のモダリティには不適合であることを示す。
本稿では,学習中のモーダル間の条件付き学習速度のバランスをとるアルゴリズムを提案し,グリージー学習の問題に対処できることを実証する。
論文 参考訳(メタデータ) (2022-02-10T20:11:21Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Generalized Zero-Shot Learning using Multimodal Variational Auto-Encoder
with Semantic Concepts [0.9054540533394924]
近年の手法では,意味空間と画像空間の相互マッピングの学習が試みられている。
画像特徴と意味空間の共有潜在空間を学習できるマルチモーダル変分自動エンコーダ(M-VAE)を提案する。
提案手法は, ゼロショット学習における最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-26T20:08:37Z) - Preliminary study on using vector quantization latent spaces for TTS/VC
systems with consistent performance [55.10864476206503]
本稿では,潜在言語埋め込みをモデル化するための量子化ベクトルの利用について検討する。
トレーニングにおいて、潜伏空間上の異なるポリシーを強制することにより、潜伏言語埋め込みを得ることができる。
実験の結果,ベクトル量子化法で構築した音声クローニングシステムは,知覚的評価の点でわずかに劣化していることがわかった。
論文 参考訳(メタデータ) (2021-06-25T07:51:35Z) - A Framework to Enhance Generalization of Deep Metric Learning methods
using General Discriminative Feature Learning and Class Adversarial Neural
Networks [1.5469452301122175]
メトリック学習アルゴリズムは、意味論的に類似したデータアイテムをまとめて、異種データを遠くに保持する距離関数を学習することを目的としている。
データから特徴を自動的に抽出し,入力空間から意味的な埋め込み空間への非線形変換を学習するDeep Metric Learning (DML)法が提案されている。
ゼロショット学習(ZSL)環境において,既存のDML手法の一般化能力を高める枠組みを提案する。
論文 参考訳(メタデータ) (2021-06-11T14:24:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。