論文の概要: MAEEG: Masked Auto-encoder for EEG Representation Learning
- arxiv url: http://arxiv.org/abs/2211.02625v1
- Date: Thu, 27 Oct 2022 21:43:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 23:46:48.422457
- Title: MAEEG: Masked Auto-encoder for EEG Representation Learning
- Title(参考訳): MAEEG:脳波表現学習のためのマスク付きオートエンコーダ
- Authors: Hsiang-Yun Sherry Chien, Hanlin Goh, Christopher M. Sandino, Joseph Y.
Cheng
- Abstract要約: 脳波自動エンコーダ(MAEEG)を用いた再構成型自己教師型学習モデルを提案する。
少数のラベルが与えられた場合,MAEEGは睡眠段階分類(5%の精度向上)を大幅に改善する表現を学習できることがわかった。
- 参考スコア(独自算出の注目度): 3.9098552109609086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decoding information from bio-signals such as EEG, using machine learning has
been a challenge due to the small data-sets and difficulty to obtain labels. We
propose a reconstruction-based self-supervised learning model, the masked
auto-encoder for EEG (MAEEG), for learning EEG representations by learning to
reconstruct the masked EEG features using a transformer architecture. We found
that MAEEG can learn representations that significantly improve sleep stage
classification (~5% accuracy increase) when only a small number of labels are
given. We also found that input sample lengths and different ways of masking
during reconstruction-based SSL pretraining have a huge effect on downstream
model performance. Specifically, learning to reconstruct a larger proportion
and more concentrated masked signal results in better performance on sleep
classification. Our findings provide insight into how reconstruction-based SSL
could help representation learning for EEG.
- Abstract(参考訳): 機械学習を用いた脳波などの生体信号からの情報の復号化は、小さなデータセットとラベル取得の困難さから課題となっている。
本稿では,脳波自動エンコーダ(MAEEG)を用いた自己教師型学習モデルを提案する。
少数のラベルが与えられた場合,MAEEGは睡眠段階分類を大幅に改善する表現(〜5%の精度向上)を学習できることがわかった。
また,復元型SSLプリトレーニングにおける入力サンプルの長さやマスクの仕方が異なることが,下流モデルの性能に大きな影響を及ぼすことがわかった。
具体的には、より大きな比率とより集中したマスク信号の再構築を学ぶことで、睡眠分類のパフォーマンスが向上する。
脳波の表現学習において,リコンストラクションベースのSSLがいかに役立つかが示唆された。
関連論文リスト
- Large Brain Model for Learning Generic Representations with Tremendous EEG Data in BCI [6.926908480247951]
大型脳モデル(LaBraM)と呼ばれる脳波の統一基盤モデルを提案する。
LaBraMは、EEG信号をEEGチャネルパッチにセグメント化することで、データセット間の学習を可能にする。
次に、マスクされたEEGチャネルパッチの元のニューラルコードを予測することにより、ニューラルトランスフォーマーを事前訓練する。
論文 参考訳(メタデータ) (2024-05-29T05:08:16Z) - EEG2Rep: Enhancing Self-supervised EEG Representation Through Informative Masked Inputs [4.028059312496666]
本稿では,脳波からの自己教師型表現学習のための自己予測手法であるtextitEEG2Repを紹介する。
生の脳波からマスク入力を予測する代わりに、EEG2Repは潜在表現空間におけるマスク入力を予測する。
EEG2Repは、EEGデータに存在する重要な課題に対処するノイズに対して堅牢である。
論文 参考訳(メタデータ) (2024-02-17T05:22:41Z) - vEEGNet: learning latent representations to reconstruct EEG raw data via
variational autoencoders [3.031375888004876]
本稿では,2つのモジュールを持つDLアーキテクチャであるvEEGNetを提案する。つまり,データの潜在表現を抽出する変分オートエンコーダに基づく教師なしモジュールと,フィードフォワードニューラルネットワークに基づく教師付きモジュールにより異なる動作を分類する。
我々は最先端の分類性能を示し、生の脳波の低周波成分と中周波成分の両方を再構成する能力を示した。
論文 参考訳(メタデータ) (2023-11-16T19:24:40Z) - GiGaMAE: Generalizable Graph Masked Autoencoder via Collaborative Latent
Space Reconstruction [76.35904458027694]
マスク付きオートエンコーダモデルは、グラフデータに対する優れた一般化能力に欠ける。
本稿では,GiGaMAEと呼ばれる新しいグラフマスマスキングオートエンコーダフレームワークを提案する。
私たちの結果は、グラフ構造化データに基づく基礎モデルの設計に光を当てます。
論文 参考訳(メタデータ) (2023-08-18T16:30:51Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - SdAE: Self-distillated Masked Autoencoder [95.3684955370897]
本稿では,自己蒸留マスク付きオートエンコーダネットワークSdAEを提案する。
300エポックの事前トレーニングで、バニラViT-BaseモデルはImageNet-1k分類において84.1%の微調整精度を達成する。
論文 参考訳(メタデータ) (2022-07-31T15:07:25Z) - Classification of EEG Motor Imagery Using Deep Learning for
Brain-Computer Interface Systems [79.58173794910631]
トレーニングされたT1クラス畳み込みニューラルネットワーク(CNN)モデルを使用して、運動画像の識別を成功させる能力を調べる。
理論的には、モデルが正確にトレーニングされた場合、クラスを特定し、それに従ってラベル付けすることが可能になる。
CNNモデルは復元され、より小さなサンプルデータを使用して同じ種類の運動画像データを特定するために使用される。
論文 参考訳(メタデータ) (2022-05-31T17:09:46Z) - Self-supervised Contrastive Learning for EEG-based Sleep Staging [29.897104001988748]
睡眠段階分類のための脳波信号の自己教師付きコントラスト学習法を提案する。
詳細は、ネットワークのパフォーマンスは、トレーニングプロセスで使用される変換の選択とラベルなしデータの量に依存する。
論文 参考訳(メタデータ) (2021-09-16T10:05:33Z) - GANSER: A Self-supervised Data Augmentation Framework for EEG-based
Emotion Recognition [15.812231441367022]
本稿では,GANSER(Generative Adversarial Network-based Self-supervised Data Augmentation)という新しいデータ拡張フレームワークを提案する。
脳波に基づく感情認識のための自己教師型学習と対人訓練を併用する最初の試みとして、提案フレームワークは高品質な模擬脳波サンプルを生成することができる。
変換関数は、脳波信号の一部を隠蔽し、生成元に残りの部分に基づいて潜在的な脳波信号を合成させる。
論文 参考訳(メタデータ) (2021-09-07T14:42:55Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。