論文の概要: Negative Selection by Clustering for Contrastive Learning in Human
Activity Recognition
- arxiv url: http://arxiv.org/abs/2203.12230v1
- Date: Wed, 23 Mar 2022 06:54:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 04:49:09.700975
- Title: Negative Selection by Clustering for Contrastive Learning in Human
Activity Recognition
- Title(参考訳): クラスタリングによる人間活動認識におけるコントラスト学習の否定的選択
- Authors: Jinqiang Wang, Tao Zhu, Liming Chen, Huansheng Ning, Yaping Wan
- Abstract要約: 我々は,HAR(Human Activity Recognition)におけるクラスタリングによるネガティブな選択を行う新しいコントラスト学習フレームワークを提案する。
SimCLRと比較して、教師なしクラスタリング法を用いて、対照的な損失関数の負のペアを再定義し、同じクラスタの他のサンプルを隠蔽するソフトラベルを生成し、負のサンプルとして扱うことを避ける。
評価指標として平均F1スコアを用いて,USC-HAD,MotionSense,UCI-HARの3つのベンチマークデータセット上でClusterCLHARを評価する。
- 参考スコア(独自算出の注目度): 5.351176836203563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrastive learning has been applied to Human Activity Recognition (HAR)
based on sensor data owing to its ability to achieve performance comparable to
supervised learning with a large amount of unlabeled data and a small amount of
labeled data. The pre-training task for contrastive learning is generally
instance discrimination, which specifies that each instance belongs to a single
class, but this will consider the same class of samples as negative examples.
Such a pre-training task is not conducive to human activity recognition tasks,
which are mainly classification tasks. To address this problem, we follow
SimCLR to propose a new contrastive learning framework that negative selection
by clustering in HAR, which is called ClusterCLHAR. Compared with SimCLR, it
redefines the negative pairs in the contrastive loss function by using
unsupervised clustering methods to generate soft labels that mask other samples
of the same cluster to avoid regarding them as negative samples. We evaluate
ClusterCLHAR on three benchmark datasets, USC-HAD, MotionSense, and UCI-HAR,
using mean F1-score as the evaluation metric. The experiment results show that
it outperforms all the state-of-the-art methods applied to HAR in
self-supervised learning and semi-supervised learning.
- Abstract(参考訳): センサデータに基づくヒューマンアクティビティ認識(HAR)には,大量のラベル付きデータと少量のラベル付きデータによる教師付き学習に匹敵するパフォーマンスを実現する能力があるため,コントラスト学習が適用されている。
対照的な学習のための事前学習タスクは一般にインスタンス識別であり、各インスタンスが1つのクラスに属していることを示すが、これは否定的な例と同じ種類のサンプルである。
このような事前学習タスクは、主に分類タスクである人間の活動認識タスクには適用されない。
この問題に対処するため,我々はSimCLRに従って,クラスタリングによるネガティブな選択を行う新しいコントラスト学習フレームワークを提案し,これをClusterCLHARと呼ぶ。
simclrと比較すると、同じクラスタの他のサンプルをマスクするソフトラベルを生成するために教師なしのクラスタリングメソッドを使用して、コントラスト損失関数の負のペアを再定義する。
評価指標として平均F1スコアを用いて,USC-HAD,MotionSense,UCI-HARの3つのベンチマークデータセット上でClusterCLHARを評価する。
実験の結果,自己指導学習や半教師あり学習において,HARに適用される最先端の手法よりも優れていた。
関連論文リスト
- CLAF: Contrastive Learning with Augmented Features for Imbalanced
Semi-Supervised Learning [40.5117833362268]
半教師付き学習とコントラスト学習は、ポピュラーなアプリケーションでより良いパフォーマンスを達成するために徐々に組み合わせられてきた。
1つの一般的な方法は、擬似ラベルを未ラベルのサンプルに割り当て、擬似ラベルのサンプルから正と負のサンプルを選択して、対照的な学習を適用することである。
比較学習における少数クラスサンプルの不足を軽減するために,CLAF(Contrastive Learning with Augmented Features)を提案する。
論文 参考訳(メタデータ) (2023-12-15T08:27:52Z) - CLC: Cluster Assignment via Contrastive Representation Learning [9.631532215759256]
コントラスト学習を用いてクラスタ割り当てを直接学習するコントラスト学習ベースのクラスタリング(CLC)を提案する。
完全なImageNetデータセットで53.4%の精度を実現し、既存のメソッドを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2023-06-08T07:15:13Z) - InfoNCE Loss Provably Learns Cluster-Preserving Representations [54.28112623495274]
InfoNCEが有限個の負のサンプルで学習した表現は、データのクラスタに対して一致していることを示す。
我々の主な成果は、InfoNCEが有限個の負のサンプルで学んだ表現もまた、データのクラスタと一致していることを示すことである。
論文 参考訳(メタデータ) (2023-02-15T19:45:35Z) - Cluster-aware Contrastive Learning for Unsupervised Out-of-distribution
Detection [0.0]
教師なしアウト・オブ・ディストリビューション(OOD)検出は、ラベル情報なしでトレーニングデータの分布外に落下するサンプルを分離することを目的としている。
本稿では,インスタンスレベルの情報と意味レベルの情報の両方を考慮した,教師なしOOD検出のためのクラスタ対応コントラスト学習(CCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-06T07:21:03Z) - Neighborhood Contrastive Learning for Novel Class Discovery [79.14767688903028]
我々は,クラスタリング性能に重要な識別表現を学習するために,Neighborhood Contrastive Learningという新しいフレームワークを構築した。
これらの2つの成分がクラスタリング性能に大きく寄与し、我々のモデルが最先端の手法よりも大きなマージンで優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T17:34:55Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Solving Inefficiency of Self-supervised Representation Learning [87.30876679780532]
既存のコントラスト学習法は、非常に低い学習効率に苦しむ。
アンダークラスタリングとオーバークラスタリングの問題は、学習効率の大きな障害である。
中央三重項損失を用いた新しい自己監督学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-18T07:47:10Z) - Contrastive Clustering [57.71729650297379]
本稿では,インスタンスレベルのコントラスト学習を明示的に行うContrastive Clustering (CC)を提案する。
特にCCは、CIFAR-10(CIFAR-100)データセット上で0.705(0.431)のNMIを達成しており、最高のベースラインと比較して最大19%(39%)のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-09-21T08:54:40Z) - Unsupervised Feature Learning by Cross-Level Instance-Group
Discrimination [68.83098015578874]
我々は、インスタンスグループ化ではなく、クロスレベルな識別によって、インスタンス間の類似性を対照的な学習に統合する。
CLDは、教師なし学習を、自然データや現実世界のアプリケーションに効果的に近づける。
セルフスーパービジョン、セミスーパービジョン、トランスファーラーニングベンチマークに関する新たな最先端技術は、報告されたすべてのパフォーマンスでMoCo v2とSimCLRを上回っている。
論文 参考訳(メタデータ) (2020-08-09T21:13:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。