論文の概要: ColloSSL: Collaborative Self-Supervised Learning for Human Activity
Recognition
- arxiv url: http://arxiv.org/abs/2202.00758v1
- Date: Tue, 1 Feb 2022 21:05:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 02:21:24.377503
- Title: ColloSSL: Collaborative Self-Supervised Learning for Human Activity
Recognition
- Title(参考訳): ColloSSL: 人間の活動認識のための協調的自己監視学習
- Authors: Yash Jain, Chi Ian Tang, Chulhong Min, Fahim Kawsar, and Akhil Mathur
- Abstract要約: 堅牢なヒューマンアクティビティ認識モデル(HAR)のトレーニングにおける大きなボトルネックは、大規模ラベル付きセンサーデータセットの必要性である。
大量のセンサデータをラベル付けすることは高価な作業であるため、教師なしおよび半教師なしの学習技術が出現している。
複数のデバイスから収集されたラベルのないデータを活用するコラボレーティブ・セルフスーパーバイズ・ラーニング(ColloSSL)と呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 9.652822438412903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A major bottleneck in training robust Human-Activity Recognition models (HAR)
is the need for large-scale labeled sensor datasets. Because labeling large
amounts of sensor data is an expensive task, unsupervised and semi-supervised
learning techniques have emerged that can learn good features from the data
without requiring any labels. In this paper, we extend this line of research
and present a novel technique called Collaborative Self-Supervised Learning
(ColloSSL) which leverages unlabeled data collected from multiple devices worn
by a user to learn high-quality features of the data. A key insight that
underpins the design of ColloSSL is that unlabeled sensor datasets
simultaneously captured by multiple devices can be viewed as natural
transformations of each other, and leveraged to generate a supervisory signal
for representation learning. We present three technical innovations to extend
conventional self-supervised learning algorithms to a multi-device setting: a
Device Selection approach which selects positive and negative devices to enable
contrastive learning, a Contrastive Sampling algorithm which samples positive
and negative examples in a multi-device setting, and a loss function called
Multi-view Contrastive Loss which extends standard contrastive loss to a
multi-device setting. Our experimental results on three multi-device datasets
show that ColloSSL outperforms both fully-supervised and semi-supervised
learning techniques in majority of the experiment settings, resulting in an
absolute increase of upto 7.9% in F_1 score compared to the best performing
baselines. We also show that ColloSSL outperforms the fully-supervised methods
in a low-data regime, by just using one-tenth of the available labeled data in
the best case.
- Abstract(参考訳): 堅牢なヒューマンアクティビティ認識モデル(HAR)のトレーニングにおける大きなボトルネックは、大規模ラベル付きセンサーデータセットの必要性である。
大量のセンサーデータのラベリングは高価な作業であるため、ラベルを必要とせずにデータから優れた特徴を学習できる教師なし、半教師なしの学習技術が登場している。
本稿では,この研究を拡張し,ユーザが装着した複数のデバイスから収集したラベルのないデータを利用して,高品質なデータの特徴を学習するColloSSLという新しい手法を提案する。
ColloSSLの設計を支える重要な洞察は、複数のデバイスによって同時にキャプチャされたラベルのないセンサデータセットが互いに自然な変換と見なされ、表現学習のための監視信号を生成するために利用されることである。
本稿では,従来の自己教師付き学習アルゴリズムをマルチデバイス設定に拡張するための3つの技術革新について述べる: 正と負のデバイスを選択してコントラスト学習を可能にするデバイス選択アプローチ,多デバイス設定で正と負のサンプルをサンプリングするコントラストサンプリングアルゴリズム,および標準コントラスト損失をマルチデバイス設定に拡張するマルチビューコントラスト損失と呼ばれる損失関数。
3つのマルチデバイスデータセットによる実験結果から,ColroSSLは実験環境の大部分において,完全教師付きと半教師付きの両方の学習技術より優れており,F_1スコアの絶対的に7.9%向上することがわかった。
また、ColroSSLは、利用可能なラベル付きデータの10分の1をベストケースで使用することで、低データ方式で完全に教師されたメソッドよりも優れていることを示す。
関連論文リスト
- AEMLO: AutoEncoder-Guided Multi-Label Oversampling [6.255095509216069]
AEMLOは、不均衡なマルチラベルデータに対するAutoEncoder-guided Oversampling技術である。
AEMLOは、既存の最先端手法よりも優れた性能を示し、広範な実証研究を行った。
論文 参考訳(メタデータ) (2024-08-23T14:01:33Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - Dual-Perspective Knowledge Enrichment for Semi-Supervised 3D Object
Detection [55.210991151015534]
本稿では, DPKE という新しい2次元知識豊か化手法を提案する。
我々のDPKEは、データパースペクティブと機能パースペクティブという2つの観点から、限られたトレーニングデータ、特にラベルなしデータの知識を豊かにしています。
論文 参考訳(メタデータ) (2024-01-10T08:56:07Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Self-Supervised Human Activity Recognition with Localized Time-Frequency
Contrastive Representation Learning [16.457778420360537]
スマートフォン加速度計データを用いた人間行動認識のための自己教師付き学習ソリューションを提案する。
加速度計信号から強い表現を学習し,クラスラベルへの依存度を低減させるモデルを開発した。
提案手法の性能をMotionSense, HAPT, HHARの3つのデータセットで評価した。
論文 参考訳(メタデータ) (2022-08-26T22:47:18Z) - Federated Self-Supervised Learning in Heterogeneous Settings: Limits of
a Baseline Approach on HAR [0.5039813366558306]
我々は,標準軽量オートエンコーダと標準フェデレーション平均化が,人間の活動認識の堅牢な表現を学習できないことを示す。
これらの知見は、フェデレーション・セルフ・スーパーバイザード・ラーニングにおけるより集中的な研究努力を提唱している。
論文 参考訳(メタデータ) (2022-07-17T14:15:45Z) - Collaborative Intelligence Orchestration: Inconsistency-Based Fusion of
Semi-Supervised Learning and Active Learning [60.26659373318915]
アクティブラーニング(AL)と半教師付きラーニング(SSL)は2つの効果があるが、しばしば孤立している。
本稿では、SSL-ALの潜在的な優位性をさらに調査するために、革新的な一貫性に基づく仮想aDvErialアルゴリズムを提案する。
2つの実世界のケーススタディは、提案したデータサンプリングアルゴリズムの適用と展開の実践的な産業価値を可視化する。
論文 参考訳(メタデータ) (2022-06-07T13:28:43Z) - Sense and Learn: Self-Supervision for Omnipresent Sensors [9.442811508809994]
我々は、生の知覚データから表現や特徴学習のためのSense and Learnというフレームワークを提案する。
これは、面倒なラベル付けプロセスに人間が関与することなく、注釈のないデータから、高レベルで広範囲に有用な特徴を学習できる補助的なタスクで構成されている。
提案手法は、教師付きアプローチと競合する結果を達成し、ネットワークを微調整し、ほとんどの場合、下流タスクを学習することでギャップを埋める。
論文 参考訳(メタデータ) (2020-09-28T11:57:43Z) - Federated Self-Supervised Learning of Multi-Sensor Representations for
Embedded Intelligence [8.110949636804772]
スマートフォン、ウェアラブル、IoT(Internet of Things)デバイスは、教師付きモデルを学習するための集中リポジトリに蓄積できない豊富なデータを生成する。
本稿では,ウェーブレット変換に基づくテキストカルグラム・信号対応学習という自己教師付きアプローチを提案し,ラベルなしセンサ入力から有用な表現を学習する。
さまざまなパブリックデータセットのマルチビュー戦略を用いて,学習機能の品質を広範囲に評価し,すべての領域で高いパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-07-25T21:59:17Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Multilinear Compressive Learning with Prior Knowledge [106.12874293597754]
マルチリニア圧縮学習(MCL)フレームワークは、マルチリニア圧縮センシングと機械学習をエンドツーエンドシステムに統合する。
MCLの背後にある主要なアイデアは、下流学習タスクの信号から重要な特徴を捉えることのできるテンソル部分空間の存在を仮定することである。
本稿では、上記の要件、すなわち、関心の信号が分離可能なテンソル部分空間をどうやって見つけるかという、2つの要件に対処する新しい解決策を提案する。
論文 参考訳(メタデータ) (2020-02-17T19:06:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。