論文の概要: Self-supervised Learning for Label-Efficient Sleep Stage Classification:
A Comprehensive Evaluation
- arxiv url: http://arxiv.org/abs/2210.06286v1
- Date: Mon, 10 Oct 2022 09:01:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 16:07:43.553931
- Title: Self-supervised Learning for Label-Efficient Sleep Stage Classification:
A Comprehensive Evaluation
- Title(参考訳): ラベル有効睡眠段階分類のための自己指導型学習:総合的評価
- Authors: Emadeldeen Eldele, Mohamed Ragab, Zhenghua Chen, Min Wu, Chee-Keong
Kwoh, and Xiaoli Li
- Abstract要約: 自己教師付き学習(SSL)パラダイムは、ラベル付きデータの不足を克服する最も成功したテクニックの1つとして輝いている。
本稿では,少数レーベル体制における既存のSSCモデルの性能向上のためのSSLの有効性を評価する。
ラベル付きデータのわずか5%で事前学習したSSCモデルを微調整することで、フルラベルによる教師付きトレーニングと競合する性能が得られることがわかった。
- 参考スコア(独自算出の注目度): 13.895332825128076
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The past few years have witnessed a remarkable advance in deep learning for
EEG-based sleep stage classification (SSC). However, the success of these
models is attributed to possessing a massive amount of labeled data for
training, limiting their applicability in real-world scenarios. In such
scenarios, sleep labs can generate a massive amount of data, but labeling these
data can be expensive and time-consuming. Recently, the self-supervised
learning (SSL) paradigm has shined as one of the most successful techniques to
overcome the scarcity of labeled data. In this paper, we evaluate the efficacy
of SSL to boost the performance of existing SSC models in the few-labels
regime. We conduct a thorough study on three SSC datasets, and we find that
fine-tuning the pretrained SSC models with only 5% of labeled data can achieve
competitive performance to the supervised training with full labels. Moreover,
self-supervised pretraining helps SSC models to be more robust to data
imbalance and domain shift problems. The code is publicly available at
\url{https://github.com/emadeldeen24/eval_ssl_ssc}.
- Abstract(参考訳): 過去数年間、脳波に基づく睡眠ステージ分類(SSC)の深層学習が目覚ましい進歩を遂げた。
しかしながら、これらのモデルの成功は、トレーニングのための大量のラベル付きデータを持ち、現実のシナリオにおける適用性を制限しているためである。
このようなシナリオでは、sleep labsは膨大なデータを生成することができますが、これらのデータのラベル付けは高価で時間がかかります。
近年,ラベル付きデータの不足を克服する手法として,自己教師付き学習(SSL)パラダイムが注目されている。
本稿では,少数レーベル体制における既存のSSCモデルの性能向上のためのSSLの有効性を評価する。
3つのsscデータセットについて徹底的な調査を行い,ラベル付きデータのわずか5%で事前学習されたsscモデルの微調整によって,教師付きトレーニングと完全ラベルでの競合性能が達成できることを見出した。
さらに、自己教師付き事前トレーニングは、SSCモデルがデータ不均衡やドメインシフト問題に対してより堅牢になるのに役立つ。
コードは \url{https://github.com/emadeldeen24/eval_ssl_ssc} で公開されている。
関連論文リスト
- A Survey of the Self Supervised Learning Mechanisms for Vision Transformers [5.152455218955949]
視覚タスクにおける自己教師あり学習(SSL)の適用は注目されている。
SSL手法を体系的に分類する包括的分類法を開発した。
SSLの背後にあるモチベーションについて議論し、人気のある事前トレーニングタスクをレビューし、この分野の課題と進歩を強調します。
論文 参考訳(メタデータ) (2024-08-30T07:38:28Z) - A Self-Supervised Learning Pipeline for Demographically Fair Facial Attribute Classification [3.5092955099876266]
本稿では,人口統計学的に公平な顔属性分類のための完全自己教師付きパイプラインを提案する。
我々は、事前訓練されたエンコーダ、多様なデータキュレーション技術、メタラーニングに基づく重み付きコントラスト学習を通じて、完全にラベル付けされていないデータを活用する。
論文 参考訳(メタデータ) (2024-07-14T07:11:57Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - On Pretraining Data Diversity for Self-Supervised Learning [57.91495006862553]
我々は、より多様なデータセットを用いたトレーニングが、固定された計算予算の下での自己教師付き学習(SSL)のパフォーマンスに与える影響について検討する。
以上の結果から,事前学習データの多様性の増大はSSL性能を向上させるが,下流データへの分布距離が最小である場合に限る。
論文 参考訳(メタデータ) (2024-03-20T17:59:58Z) - Evaluating Fairness in Self-supervised and Supervised Models for
Sequential Data [10.626503137418636]
自己教師型学習(SSL)は,大規模モデルのデファクトトレーニングパラダイムとなっている。
本研究では,事前学習と微調整が公正性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2024-01-03T09:31:43Z) - Semi-Supervised Class-Agnostic Motion Prediction with Pseudo Label
Regeneration and BEVMix [59.55173022987071]
クラス非依存動作予測のための半教師あり学習の可能性について検討する。
我々のフレームワークは一貫性に基づく自己学習パラダイムを採用しており、ラベルのないデータからモデルを学習することができる。
本手法は,弱さと完全教師付き手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-12-13T09:32:50Z) - Semi-Supervised Learning in the Few-Shot Zero-Shot Scenario [14.916971861796384]
Semi-Supervised Learning (SSL)は、ラベル付きデータとラベルなしデータの両方を利用して、モデルのパフォーマンスを向上させるフレームワークである。
既存のSSLメソッドを拡張し、特定のクラスが欠落している状況に対処するための一般的なアプローチを提案する。
実験の結果,最先端のSSL,オープンセットのSSL,オープンワールドのSSLメソッドと比較して,精度が大幅に向上した。
論文 参考訳(メタデータ) (2023-08-27T14:25:07Z) - DATA: Domain-Aware and Task-Aware Pre-training [94.62676913928831]
我々は、自己教師付き学習(SSL)に特化した、シンプルで効果的なNASアプローチであるDataを提示する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションなど,下流タスクにおける計算コストの広い範囲にわたる有望な結果を実現する。
論文 参考訳(メタデータ) (2022-03-17T02:38:49Z) - Robust Deep Semi-Supervised Learning: A Brief Introduction [63.09703308309176]
半教師付き学習(SSL)は、ラベルが不十分なときにラベル付きデータを活用することにより、学習性能を向上させることを目的としている。
ディープモデルによるSSLは、標準ベンチマークタスクで成功したことが証明されている。
しかし、それらは現実世界のアプリケーションにおける様々な堅牢性に対する脅威に対して依然として脆弱である。
論文 参考訳(メタデータ) (2022-02-12T04:16:41Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。