論文の概要: EEG-X: Device-Agnostic and Noise-Robust Foundation Model for EEG
- arxiv url: http://arxiv.org/abs/2511.08861v1
- Date: Thu, 13 Nov 2025 01:12:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.26609
- Title: EEG-X: Device-Agnostic and Noise-Robust Foundation Model for EEG
- Title(参考訳): EEG-X:脳波のデバイス非依存・ノイズロバスト基礎モデル
- Authors: Navid Mohammadi Foumani, Soheila Ghane, Nam Nguyen, Mahsa Salehi, Geoffrey I. Webb, Geoffrey Mackellar,
- Abstract要約: EEG-Xは、EEG表現学習のためのデバイスに依存しない、ノイズによる基礎モデルである。
ノイズに対する堅牢性を高めるため、EEG-Xはノイズ対応マスキングと再構成戦略を採用している。
EEG-Xは、複数の下流EEGタスクで最先端のメソッドより優れています。
- 参考スコア(独自算出の注目度): 9.417259036860502
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Foundation models for EEG analysis are still in their infancy, limited by two key challenges: (1) variability across datasets caused by differences in recording devices and configurations, and (2) the low signal-to-noise ratio (SNR) of EEG, where brain signals are often buried under artifacts and non-brain sources. To address these challenges, we present EEG-X, a device-agnostic and noise-robust foundation model for EEG representation learning. EEG-X introduces a novel location-based channel embedding that encodes spatial information and improves generalization across domains and tasks by allowing the model to handle varying channel numbers, combinations, and recording lengths. To enhance robustness against noise, EEG-X employs a noise-aware masking and reconstruction strategy in both raw and latent spaces. Unlike previous models that mask and reconstruct raw noisy EEG signals, EEG-X is trained to reconstruct denoised signals obtained through an artifact removal process, ensuring that the learned representations focus on neural activity rather than noise. To further enhance reconstruction-based pretraining, EEG-X introduces a dictionary-inspired convolutional transformation (DiCT) layer that projects signals into a structured feature space before computing reconstruction (MSE) loss, reducing noise sensitivity and capturing frequency- and shape-aware similarities. Experiments on datasets collected from diverse devices show that EEG-X outperforms state-of-the-art methods across multiple downstream EEG tasks and excels in cross-domain settings where pre-trained and downstream datasets differ in electrode layouts. The models and code are available at: https://github.com/Emotiv/EEG-X
- Abstract(参考訳): 脳波解析の基礎モデルはまだ初期段階にあり、(1)記録装置と構成の違いによるデータセット間のばらつき、(2)脳波の低信号-雑音比(SNR)という2つの主要な課題によって制限されている。
これらの課題に対処するため,脳波表現学習のためのデバイスに依存しない,ノイズによる基礎モデルであるEEG-Xを提案する。
EEG-Xは、空間情報をエンコードし、モデルが様々なチャネル番号、組み合わせ、記録長を扱えるようにすることで、ドメインやタスク間の一般化を改善する、新しい位置ベースのチャネル埋め込みを導入している。
ノイズに対するロバスト性を高めるため、EEG-Xは生空間と潜空間の両方でノイズ対応マスキングと再構成戦略を採用している。
脳波信号のマスキングと再構成を行う従来のモデルとは異なり、EEG-Xは人工物除去プロセスを通じて得られた難聴信号の再構成を訓練し、学習された表現がノイズよりも神経活動にフォーカスすることを保証する。
再構成に基づく事前トレーニングをさらに強化するため、EEG-Xは、リコンストラクション(MSE)の損失を計算する前に、信号を構造化特徴空間に投影し、ノイズ感度を低減し、周波数と形状の類似性をキャプチャする辞書インスパイアされた畳み込み変換(DiCT)層を導入している。
さまざまなデバイスから収集されたデータセットの実験によると、EEG-Xは複数のダウンストリームEEGタスクで最先端のメソッドより優れており、事前トレーニングされたデータセットとダウンストリームデータセットが電極レイアウトで異なるクロスドメイン設定で優れている。
モデルとコードは、https://github.com/Emotiv/EEG-X.comで入手できる。
関連論文リスト
- BrainOmni: A Brain Foundation Model for Unified EEG and MEG Signals [46.121056431476156]
異種脳波とMEG記録を対象とする脳基礎モデルBrain Omniを提案する。
既存のアプローチは一般的に、パフォーマンスとクロスドメインのスケーラビリティを制限する、分離、モダリティ、データセット固有のモデルに依存します。
EEGの合計1,997時間、MEGデータの656時間は、事前トレーニングのために公開されているソースからキュレーションされ、標準化されている。
論文 参考訳(メタデータ) (2025-05-18T14:07:14Z) - CEReBrO: Compact Encoder for Representations of Brain Oscillations Using Efficient Alternating Attention [46.47343031985037]
交互注意(CEReBrO)を用いた脳振動の表現のための圧縮法について紹介する。
トークン化方式は、チャネルごとのパッチで脳波信号を表現します。
本研究では,チャネル内時間的ダイナミックスとチャネル間空間的相関を共同でモデル化し,通常の自己アテンションに比べて6倍少ないメモリで2倍の速度向上を実現するための注意機構を提案する。
論文 参考訳(メタデータ) (2025-01-18T21:44:38Z) - CognitionCapturer: Decoding Visual Stimuli From Human EEG Signal With Multimodal Information [61.1904164368732]
脳波信号の表現にマルチモーダルデータを完全に活用する統合フレームワークであるCognitionCapturerを提案する。
具体的には、CognitionCapturerは、各モダリティに対してモダリティエキスパートを訓練し、EEGモダリティからモダリティ情報を抽出する。
このフレームワークは生成モデルの微調整を一切必要とせず、より多くのモダリティを組み込むように拡張することができる。
論文 参考訳(メタデータ) (2024-12-13T16:27:54Z) - ART: Artifact Removal Transformer for Reconstructing Noise-Free Multichannel Electroencephalographic Signals [0.10499611180329801]
脳波(EEG)のアーチファクト除去は神経科学的な分析と脳-コンピュータインターフェース(BCI)のパフォーマンスに大きな影響を及ぼす。
本研究は,脳波信号の過渡ミリ秒スケール特性を順応的に捉えるため,トランスフォーマーアーキテクチャを用いた脳波復調モデルを提案する。
脳波信号処理においてARTが他の深層学習に基づくアーティファクト除去手法を上回ることが確認された。
論文 参考訳(メタデータ) (2024-09-11T15:05:40Z) - ESTformer: Transformer utilising spatiotemporal dependencies for electroencephalogram super-resolution [17.375026288273794]
変換器をベースとした買収依存を利用したEEGフレームワークを開発した。
EEG SRタスクのためのTransformerは、EEG SRタスクのためのTransformerの汎用性を示す。
脳波に基づく人物識別と感情認識タスクにおいて,SRデータの優位性を検証した。
論文 参考訳(メタデータ) (2023-12-03T12:26:32Z) - vEEGNet: learning latent representations to reconstruct EEG raw data via
variational autoencoders [3.031375888004876]
本稿では,2つのモジュールを持つDLアーキテクチャであるvEEGNetを提案する。つまり,データの潜在表現を抽出する変分オートエンコーダに基づく教師なしモジュールと,フィードフォワードニューラルネットワークに基づく教師付きモジュールにより異なる動作を分類する。
我々は最先端の分類性能を示し、生の脳波の低周波成分と中周波成分の両方を再構成する能力を示した。
論文 参考訳(メタデータ) (2023-11-16T19:24:40Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - Orthogonal Features Based EEG Signals Denoising Using Fractional and
Compressed One-Dimensional CNN AutoEncoder [3.8580784887142774]
本稿では脳波(EEG)信号の分数的1次元畳み込みニューラルネットワーク(CNN)オートエンコーダを提案する。
脳波信号は、主に筋肉アーチファクト(MA)によって、記録過程中にしばしばノイズによって汚染される。
論文 参考訳(メタデータ) (2021-04-16T13:58:05Z) - Deep learning denoising for EOG artifacts removal from EEG signals [0.5243460995467893]
脳波の偏光過程における最も難しい問題のひとつは、眼のアーチファクトを除去することである。
本稿では,この課題に対処する深層学習モデルを構築・訓練し,眼のアーチファクトを効果的に除去する。
我々は3つの異なるスキームを提案し、U-NETベースのモデルで汚染された脳波信号の浄化を学ばせた。
論文 参考訳(メタデータ) (2020-09-12T23:28:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。