論文の概要: EEGDM: EEG Representation Learning via Generative Diffusion Model
- arxiv url: http://arxiv.org/abs/2508.14086v1
- Date: Wed, 13 Aug 2025 14:40:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.172606
- Title: EEGDM: EEG Representation Learning via Generative Diffusion Model
- Title(参考訳): EEGDM:生成拡散モデルによる脳波表現学習
- Authors: Jia Hong Puah, Sim Kuan Goh, Ziwei Zhang, Zixuan Ye, Chow Khuen Chan, Kheng Seang Lim, Si Lei Fong, Kok Sin Woon,
- Abstract要約: 生成拡散モデル(EEGDM)に基づく脳波表現学習フレームワークを提案する。
具体的には,脳波信号の時間的ダイナミクスをよりよく捉えるために,拡散事前訓練(SSMDP)のための構造化状態空間モデルを開発した。
提案した潜時核融合変換器 (LFT) を用いた下流分類作業において, 得られた潜時脳波表現を用いた。
- 参考スコア(独自算出の注目度): 14.229654292512425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While electroencephalogram (EEG) has been a crucial tool for monitoring the brain and diagnosing neurological disorders (e.g., epilepsy), learning meaningful representations from raw EEG signals remains challenging due to limited annotations and high signal variability. Recently, EEG foundation models (FMs) have shown promising potential by adopting transformer architectures and self-supervised pre-training methods from large language models (e.g., masked prediction) to learn representations from diverse EEG data, followed by fine-tuning on specific EEG tasks. Nonetheless, these large models often incurred high computational costs during both training and inference, with only marginal performance improvements as model size increases. In this work, we proposed EEG representation learning framework building upon Generative Diffusion Model (EEGDM). Specifically, we developed structured state-space model for diffusion pretraining (SSMDP) to better capture the temporal dynamics of EEG signals and trained the architecture using a Denoising Diffusion Probabilistic Model. The resulting latent EEG representations were then used for downstream classification tasks via our proposed latent fusion transformer (LFT). To evaluate our method, we used the multi-event Temple University EEG Event Corpus and compared EEGDM with current state-of-the-art approaches, including EEG FMs. Empirical results showed that our method outperformed existing methods while being approximately 19x more lightweight. These findings suggested that EEGDM offered a promising alternative to current FMs. Our code is available at: https://github.com/jhpuah/EEGDM.
- Abstract(参考訳): 脳波(EEG)は脳のモニタリングと神経疾患(てんかんなど)の診断において重要なツールであるが、生の脳波信号から有意な表現を学習することは、限られたアノテーションと高い信号可変性のために依然として困難である。
近年,脳波基礎モデル(FM)は,多種多様な脳波データから表現を学習するために,トランスフォーマーアーキテクチャや大規模言語モデル(マスク付き予測など)からの自己教師付き事前学習手法を採用することで,有望な可能性を示唆している。
にもかかわらず、これらの大きなモデルはしばしばトレーニングと推論の間に高い計算コストを発生させ、モデルサイズが増加するにつれて限界性能が向上しただけだった。
本研究では,生成拡散モデル(EEGDM)に基づく脳波表現学習フレームワークを提案する。
具体的には,脳波信号の時間的ダイナミクスをよりよく捉えるための拡散事前学習(SSMDP)のための構造化状態空間モデルを開発し,デノイング拡散確率モデルを用いてアーキテクチャを訓練した。
得られた潜在脳波表現は、提案した潜在核融合変換器(LFT)を介して下流分類タスクに使用される。
提案手法を評価するため,多目的のテンプル大学脳波イベントコーパスを用いて,脳波FMを含む最先端のアプローチとEEGDMを比較した。
その結果,本手法は従来の手法よりも約19倍軽量であることがわかった。
これらの結果は、EEGDMが現在のFMに代わる有望な代替手段を提供することを示している。
私たちのコードは、https://github.com/jhpuah/EEGDM.comで利用可能です。
関連論文リスト
- MENDR: Manifold Explainable Neural Data Representations [2.8415554351536607]
本稿では,MENDR(Manifold Explainable Neural Data Representations)を提案する。
EEGファウンデーションモデルは、事前学習、下流の微調整、学習された表現の解釈可能性における透明性を保証する必要がある。
MENDRは極めて少ないパラメータでほぼ最先端の性能を達成し, 効率的, 解釈可能, 臨床応用可能な脳波解析の可能性を明らかにする。
論文 参考訳(メタデータ) (2025-08-07T00:55:05Z) - BrainOmni: A Brain Foundation Model for Unified EEG and MEG Signals [50.76802709706976]
異種脳波とMEG記録を対象とする脳基礎モデルBrain Omniを提案する。
多様なデータソースを統一するために、脳の活動を離散表現に定量化する最初のトークンであるBrainTokenizerを紹介します。
EEGの合計1,997時間、MEGデータの656時間は、事前トレーニングのために公開されているソースからキュレーションされ、標準化されている。
論文 参考訳(メタデータ) (2025-05-18T14:07:14Z) - Large Cognition Model: Towards Pretrained EEG Foundation Model [0.0]
多様な脳波データセットと下流タスクをまたいだ一般化を目的としたトランスフォーマーベース基盤モデルを提案する。
本研究は, 神経科学, パーソナライズドメディカル, およびBCI技術の進歩を促進するための, 事前学習型脳波基盤モデルの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2025-02-11T04:28:10Z) - CEReBrO: Compact Encoder for Representations of Brain Oscillations Using Efficient Alternating Attention [53.539020807256904]
交互注意(CEReBrO)を用いた脳振動の表現のための圧縮法について紹介する。
トークン化方式は、チャネルごとのパッチで脳波信号を表現します。
本研究では,チャネル内時間的ダイナミックスとチャネル間空間的相関を共同でモデル化し,通常の自己アテンションに比べて6倍少ないメモリで2倍の速度向上を実現するための注意機構を提案する。
論文 参考訳(メタデータ) (2025-01-18T21:44:38Z) - CognitionCapturer: Decoding Visual Stimuli From Human EEG Signal With Multimodal Information [61.1904164368732]
脳波信号の表現にマルチモーダルデータを完全に活用する統合フレームワークであるCognitionCapturerを提案する。
具体的には、CognitionCapturerは、各モダリティに対してモダリティエキスパートを訓練し、EEGモダリティからモダリティ情報を抽出する。
このフレームワークは生成モデルの微調整を一切必要とせず、より多くのモダリティを組み込むように拡張することができる。
論文 参考訳(メタデータ) (2024-12-13T16:27:54Z) - EEGPT: Unleashing the Potential of EEG Generalist Foundation Model by Autoregressive Pre-training [9.57946371147345]
EEGPTはこれらの課題に対処するために設計された最初の一般のEEG基盤モデルである。
まず,各電極を基本単位として扱う電極ワイド・モデリング手法を提案する。
第2に、最初の自己回帰型脳波事前学習モデルを開発する。
第3に,学習可能な電極グラフネットワークを用いたマルチタスク転送学習パラダイムを提案する。
論文 参考訳(メタデータ) (2024-10-14T12:17:54Z) - GANSER: A Self-supervised Data Augmentation Framework for EEG-based
Emotion Recognition [15.812231441367022]
本稿では,GANSER(Generative Adversarial Network-based Self-supervised Data Augmentation)という新しいデータ拡張フレームワークを提案する。
脳波に基づく感情認識のための自己教師型学習と対人訓練を併用する最初の試みとして、提案フレームワークは高品質な模擬脳波サンプルを生成することができる。
変換関数は、脳波信号の一部を隠蔽し、生成元に残りの部分に基づいて潜在的な脳波信号を合成させる。
論文 参考訳(メタデータ) (2021-09-07T14:42:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。