論文の概要: Self-supervised EEG Representation Learning for Automatic Sleep Staging
- arxiv url: http://arxiv.org/abs/2110.15278v1
- Date: Wed, 27 Oct 2021 04:17:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-31 09:23:50.458214
- Title: Self-supervised EEG Representation Learning for Automatic Sleep Staging
- Title(参考訳): 睡眠自動ステージングのための自己教師付き脳波表現学習
- Authors: Chaoqi Yang, Danica Xiao, M. Brandon Westover, Jimeng Sun
- Abstract要約: 脳波信号表現学習のための自己教師型モデルContrast with the World Representation (ContraWR)を提案する。
ContraWRは、実世界の3つのEEGデータセットで評価される。
ContraWRは、トレーニングラベルが少ないと教師あり学習に勝る。
- 参考スコア(独自算出の注目度): 26.560516415840965
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Objective: In this paper, we aim to learn robust vector representations from
massive unlabeled Electroencephalogram (EEG) signals, such that the learned
representations (1) are expressive enough to replace the raw signals in the
sleep staging task; and (2) provide better predictive performance than
supervised models in scenarios of fewer labels and noisy samples.
Materials and Methods: We propose a self-supervised model, named Contrast
with the World Representation (ContraWR), for EEG signal representation
learning, which uses global statistics from the dataset to distinguish signals
associated with different sleep stages. The ContraWR model is evaluated on
three real-world EEG datasets that include both at-home and in-lab recording
settings.
Results: ContraWR outperforms recent self-supervised learning methods, MoCo,
SimCLR, BYOL, SimSiam on the sleep staging task across three datasets. ContraWR
also beats supervised learning when fewer training labels are available (e.g.,
4% accuracy improvement when less than 2% data is labeled). Moreover, the model
provides informative representations in 2D projection.
Discussion: The proposed model can be generalized to other unsupervised
physiological signal learning tasks. Future directions include exploring
task-specific data augmentations and combining self-supervised with supervised
methods, building upon the initial success of self-supervised learning in this
paper.
Conclusions: We show that ContraWR is robust to noise and can provide
high-quality EEG representations for downstream prediction tasks. In low-label
scenarios (e.g., only 2% data has labels), ContraWR shows much better
predictive power (e.g., 4% improvement on sleep staging accuracy) than
supervised baselines.
- Abstract(参考訳): 目的:本論文では,学習した表象が睡眠ステージングタスクの生信号を置き換えるのに十分な表現性を持つように,eeg信号からロバストなベクトル表現を学習することを目的として,(2)少ないラベルとノイズサンプルのシナリオにおいて教師ありモデルよりも優れた予測性能を提供する。
資料と方法:本研究では,脳波信号表現学習のための世界表現(contrawr)と対比する自己教師付きモデルを提案する。
ContraWRモデルは、実世界の3つのEEGデータセットで評価される。
結果: contrawr は,最近の自己教師あり学習法,moco,simclr,byol,simsiam を,3つのデータセットにわたる睡眠ステージングタスクで上回っている。
ContraWRはまた、トレーニングラベルが少ない場合(例えば、2%以下のデータがラベル付けされた場合、4%の精度向上)に教師あり学習を破る。
さらに、モデルは2次元射影における情報表現を提供する。
考察: 提案モデルは他の教師なしの生理的シグナル学習タスクに一般化することができる。
今後の方向性としては,タスク固有のデータ拡張の探索,教師付き手法による自己教師付き学習の結合,自己教師付き学習の初期成功などが挙げられる。
結論:ContraWRはノイズに対して堅牢であり,下流予測タスクに高品質なEEG表現を提供できることを示す。
低ラベルのシナリオ(例えば、2%のデータにラベルがある)では、contrawrは教師付きベースラインよりもはるかに優れた予測能力(例えば、睡眠ステージング精度の4%改善)を示している。
関連論文リスト
- SignBERT+: Hand-model-aware Self-supervised Pre-training for Sign
Language Understanding [132.78015553111234]
手の動きは手話の表現において重要な役割を担っている。
現在,手話理解(SLU)の深層学習手法は,手話データ資源の不足により過度に適合する傾向にある。
モデル認識ハンドを組み込んだ初の自己教師型事前学習型SignBERT+フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T17:16:38Z) - Enhancing Self-Supervised Learning for Remote Sensing with Elevation
Data: A Case Study with Scarce And High Level Semantic Labels [1.534667887016089]
本研究は、地球観測下流タスクに適用された事前学習モデルに対する、教師なしと教師なしのハイブリッド学習手法を提案する。
我々は、事前訓練モデルに対する対照的なアプローチと画素単位の回帰事前テキストタスクを組み合わせることで、粗い標高マップを予測する。
論文 参考訳(メタデータ) (2023-04-13T23:01:11Z) - A Benchmark Generative Probabilistic Model for Weak Supervised Learning [2.0257616108612373]
アノテーションの負担を軽減するために、弱監視学習アプローチが開発されている。
遅延変数モデル(PLVM)が4つのデータセット間で最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2023-03-31T07:06:24Z) - Dual Learning for Large Vocabulary On-Device ASR [64.10124092250128]
デュアル・ラーニング(英: Dual learning)は、教師なしのデータを一度に2つの逆のタスクを解くことによって活用しようとする、半教師なし機械学習のパラダイムである。
本稿では,Librispeech全体をトレーニングしたオンデバイスサイズのストリーミングコンバータの解析を行い,LMを使わずにWERを10.7%/5.2%,LMを11.7%/16.4%改善したことを示す。
論文 参考訳(メタデータ) (2023-01-11T06:32:28Z) - Vector-Based Data Improves Left-Right Eye-Tracking Classifier
Performance After a Covariate Distributional Shift [0.0]
我々は、より堅牢なベンチマークを作成するために、EEG-ETデータ収集のための微粒なデータアプローチを提案する。
我々は、粗粒データと細粒データの両方を利用して機械学習モデルを訓練し、類似/異なる分布パターンのデータでテストした場合の精度を比較した。
その結果、細粒度ベクトルベースでトレーニングされたモデルは、粗粒度二分分類されたデータでトレーニングされたモデルよりも分布シフトの影響を受けにくいことがわかった。
論文 参考訳(メタデータ) (2022-07-31T16:27:50Z) - Value-Consistent Representation Learning for Data-Efficient
Reinforcement Learning [105.70602423944148]
本稿では,意思決定に直接関連のある表現を学習するための,VCR(Value-Consistent Expression Learning)という新しい手法を提案する。
この想像された状態と環境によって返される実状態とを一致させる代わりに、VCRは両方の状態に$Q$-valueヘッドを適用し、2つのアクション値の分布を得る。
検索不要なRLアルゴリズムに対して,提案手法が新たな最先端性能を実現することが実証された。
論文 参考訳(メタデータ) (2022-06-25T03:02:25Z) - Imposing Consistency for Optical Flow Estimation [73.53204596544472]
プロキシタスクによる一貫性の導入は、データ駆動学習を強化することが示されている。
本稿では,光フロー推定のための新しい,効果的な整合性戦略を提案する。
論文 参考訳(メタデータ) (2022-04-14T22:58:30Z) - Investigating Power laws in Deep Representation Learning [4.996066540156903]
本研究では,非ラベルデータセットにおける表現の質を評価するためのフレームワークを提案する。
表現学習に影響を与える3つの重要な属性に対して、電力法則の係数$alpha$を推定する。
特に$alpha$はラベルの知識のない表現から計算可能であり、非ラベル付きデータセットにおける表現の質を評価するためのフレームワークを提供する。
論文 参考訳(メタデータ) (2022-02-11T18:11:32Z) - Self-supervised Contrastive Learning for EEG-based Sleep Staging [29.897104001988748]
睡眠段階分類のための脳波信号の自己教師付きコントラスト学習法を提案する。
詳細は、ネットワークのパフォーマンスは、トレーニングプロセスで使用される変換の選択とラベルなしデータの量に依存する。
論文 参考訳(メタデータ) (2021-09-16T10:05:33Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。